Operai acaba de hacer una aplicación para compartir la slop hiperrealista de AI


¿Sabía que puede personalizar Google para filtrar la basura? Tomar estos pasos Para obtener mejores resultados de búsqueda, incluido agregar mi trabajo en Lifehacker como fuente preferida.


El año pasado, escribí que todos deberíamos tener miedo de Sora, el generador de videos de IA de Openai. El despliegue inicial de Sora prometió videos hiperrealistas que, aunque emocionantes para algunos, me aterrorizaron. Si bien los fanáticos de la IA ven un futuro de películas y programas generados por la IA, veo un futuro en el que nadie puede decir qué es real o falso. Para mí, el único destino para esta tecnología es la desinformación masiva.

En el año y medio desde entonces, estos videos generados por IA no solo se vuelven más realistas; También se han vuelto más accesibles, ya que compañías como Google ponen sus herramientas fácilmente disponibles para cualquier persona que esté dispuesta a pagar. Esa es la situación en la que nos encontramos con los últimos anuncios de Openai: Sora 2, un nuevo modelo de IA para generar video con audio, así como una nueva aplicación SORA para crear y compartir sus productos generados por IA.

Sora 2

Operai está comercializando Sora 2 como una actualización masiva sobre Sora, comparando los dos a GPT-3.5 y GPT-1, respectivamente. La compañía dice que el nuevo modelo puede generar videos complejos que los modelos anteriores no pudieron. Eso incluye, específicamente, una rutina de gimnasia olímpica; un hombre que realiza un retroceso en una tabla de paddle que «con precisión» modela la física del agua; así como un patinador que realiza un triple axel con un gato en el hombro.

Una falla común con modelos de video de IA es su falta de comprensión de la física del mundo real. Lo visual puede parecer realista, pero los elementos pueden transformarse al azar, mientras que otros pueden desaparecer y reaparecer sin rima ni razón. Operai dice que Sora 2 no comete estos errores con tanta frecuencia. Un baloncesto que pierde el aro no reaparecerá mágicamente allí; En su lugar, rebotará en el tablero como esperaría. La compañía advierte que el modelo sigue siendo imperfecto, pero se mejora. Sobre la base de esto, el modelo es mejor en la continuidad en diferentes tomas: tomar OpenAi en su palabra, sus videos deben mantener la consistencia entre las tomas, y debe poder dictar diferentes tipos de estilos, incluidos «realistas», «cinematográficos» y «anime».

Quizás el mayor salto con Sora 2 es la capacidad de agregar elementos del mundo real al modelo, una característica de OpenAi llama «cameo». Puede poner personas reales en el modelo Sora 2 y pedirle a la IA que las genere en cualquier video que desee. Operai muestra una serie de ejemplos de su personal que se agregan a varios videos, y aunque la calidad es inconsistente, es un salto gigantesco desde los días de Jibjab.

Al igual que el modelo VEO 3 de Google, Sora 2 puede generar video con audio realista. El video del anuncio muestra esto: un elefante ruge; un patinador swooshes en el hielo; salpicaduras de agua en el suelo. Pero, de manera más impresionante (y con respecto a la gente hablar. Un Sam Altman, generado por IA, explica el nuevo modelo y la aplicación en este video, y aunque es bastante obvio para aquellos de nosotros sabemos que esta es AI, puedo imaginar muchos La gente no tendría idea de que este no es el verdadero Altman en el clip.

Aplicación Sora

Operai dice que la aplicación Sora surgió como una «evolución natural de la comunicación». La compañía ve esto como una forma para que las personas creen y remezcle las generaciones de IA de otros usuarios, especialmente con la capacidad de cargar su propia cara y semejanza al modelo.

Por el momento, la aplicación es solo de invitación, aunque puede descargarla de forma gratuita de la App Store hoy. Sin embargo, puede tener una idea de la experiencia, tanto del video de demostración, OpenAi, y las publicaciones de las personas que ya tienen acceso.

Este primer ejemplo de Operai Demos es de un cameo doble del científico de investigación de Operai Bill Peebles y Sam Altman. El video contiene una foto establecida de los dos hombres que tienen una conversación, que reduce a un primer plano de Peebles hablando rápidamente sobre los ingresos de la aplicación, luego a un primer plano de Altman en la queja, antes de cerrar la toma de establecimiento original. En la superficie, es el tipo de video que puede esperar pasar por un tiktok o un atracón de los carretes, pero este video está completamente generado por IA.

El personal de Operai muestra una serie de otros ejemplos previamente generados, incluido un cameo que se convierte en una caricatura, otro que cambia el efecto al anime y otro que genera un informe de «noticias» de una de las adicciones al miembro del personal a Ketchup. (Ese último es bastante asqueroso, podría agregar). También demuestran videos de remezcla que encuentras en el feed, ya que puedes pedirle a Sora que ajuste el video como quieras. Un video muestra Peebles en un «anuncio» para una colonia Sora 2, pero otros lo han remezclado para ser de pasta de dientes, o completamente en coreano.

Estos videos son bastante realistas: en uno, crees que simplemente estás viendo un clip de un partido de tenis, pero resulta ser un cameo con Rohan Sahai de Openai. Después de que «Sahai» gana el partido, el video pasa a su «entrevista», en la que agradece a los enemigos. Otros son más obviamente AI, aunque, nuevamente, no lo suficiente para que la mayoría de las personas se desplazan por elándose.

Seguridad y seguridad, según OpenAi

Los cameos suenan como una pesadilla de privacidad y seguridad, aunque OpenAi tiene algunas protecciones en su lugar. No puede simplemente usar la cara de nadie para ningún videos, y solo puede cargar su propia cara en la plataforma. Configurar la función de cameo en la aplicación es sencillo, si no extremadamente desagradable. La aplicación escaneará su cara, algo así como configurar Face ID en un iPhone, y luego enviará los datos a los «sistemas» de Openi, para «toneladas de validación» para bloquear a los imitadores o usuarios que quieran crear cameos de usted sin su consentimiento. Una vez aprobado, usted elige quién puede crear cameos de usted mismo, incluidos todos los usuarios, amigos, usuarios que aprueba específicamente o simplemente usted.

¿Qué piensas hasta ahora?

En cuanto a los videos en sí, la aplicación Sora aplica una marca de agua visible a cualquier clip exportado fuera de la aplicación. Si ya ha visto alguno de estos videos en Internet, notará un pequeño sello «SORA» en cada uno, similar a la marca de agua que ve en los clips de Tiktok exportados a otras plataformas. También hay modelos de razonamiento debajo del capó para impedir que los usuarios generen contenido «dañino», especialmente con respecto a los cameos.

Si eres un adolescente que usa la aplicación Sora, no podrás desplazarte para siempre. Después de desplazarse por un tiempo, habrá un período de enfriamiento para evitar que pase horas desplazándose a través de estos videos de IA. Si bien las cuentas para adultos no tendrán esta restricción, la aplicación lo «empujará» a tomar un descanso.

¿Quién pidió esto?

Con el debido respeto a OpenAi y su equipo de seguridad, esta aplicación parece que será un desastre, por muchas razones.

Por un lado, Operai ha hecho que sea tan fácil generar videos hiperrealistas de forma corta como es preguntarle a Siri sobre el clima. Aprecio que todos estos videos vengan con marcas de agua, pero no necesitará mucha habilidad para editarlos, al menos de una manera que la mayoría de la gente no se dan cuenta. Tan pronto como esto esté ampliamente disponible, todos nuestros alimentos en las redes sociales estarán plagadas de este contenido. Y, ver tanto con el video y audio que son bastante realistas, muchas personas serán engañadas por un lote de contenido.

Es bastante malo cuando eso involucra videos tontos, como los conejitos que saltan sobre un trampolín. Pero, ¿qué sucede cuando son «políticos» diciendo algo atroz, o una «celebridad» que roba algo de una tienda? Un video viral Sora muestra a Sam Altman tratando de huir con una GPU en Target, antes de ser detenido por un guardia de seguridad. ¿Cuántos videos más de Sora mostrarán a Sam Altman, y cualquier otra persona que apruebe que sus cameos se remezclan, cometan crímenes o simplemente hacen algo vergonzoso? Aquellos con suficiente poder o fama pueden desacreditar los videos, pero para entonces, será demasiado tarde: la mayoría de las personas que lo vieron lo tomarán como un hecho.

Hasta ese momento, es genial que existan medidas de seguridad para evitar que las personas remezcle los cameos de otros usuarios sin permiso, pero el riesgo aquí por el abuso es supremo: ¿Qué sucede si alguien descubre cómo «escanear» la cara de alguien de un video o descifrar la configuración que impide que otros usen su escaneo facial original? Si pueden pasar por alto las medidas de seguridad de Openai, pueden remezclar la cara de esa persona en cualquier video aprobado por la plataforma. En ese momento, el gato está fuera de la bolsa.

Mira, estoy crónicamente en línea. No voy a fingir que no disfruto de un buen meme generado por AI cuando se me ocurra mi feed. Pero no estoy a punto de pasar mi tiempo libre desplazando nada Pero la podredumbre cerebral generada por IA. Estoy seguro de que la gente encontrará formas creativas de hacer videos divertidos usando Sora, o pasar un buen rato haciendo cameos con sus amigos, pero ese es el punto: más allá de la novedad de la tecnología, no hay nada bueno por venir de esto.

Es hora de dejar de creer en cualquier cosa Verá en línea: alguien podría haberlo cocido en una aplicación.


We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept