Una mujer camina por una calle iluminada de Tokio, en un video generado por Sora, el modelo generativo de texto a video de OpenAI. Foto archivo
Una mujer camina por una calle iluminada de Tokio, en un video generado por Sora, el modelo generativo de texto a video de OpenAI. Foto archivo

23 de feb. (Dow Jones) -- OpenAI ha introducido una nueva tecnología que utiliza inteligencia artificial (IA) para crear videos de alta calidad a partir de descripciones de texto.

     La compañía lanzó clips cortos que muestran videos vívidos y aparentemente realistas, incluidos mamuts lanudos caminando por un campo nevado, olas del océano rompiendo contra la costa de un acantilado y personas haciendo cosas cotidianas, como leer un libro o caminar por la calle de una ciudad.

     OpenAI llama al nuevo sistema Sora. Toma una indicación escrita y, a través de la IA, renderiza un video sumamente detallado. OpenAI es una de las muchas empresas, como Google de Alphabet y Meta Platforms, que buscan capitalizar los nuevos desarrollos de video de IA.

     OpenAI, respaldado por Microsoft, fabricante del chatbot de IA ChatGPT, dijo que está compartiendo la tecnología de texto a video con un grupo selecto de investigadores y académicos que la estudiarán para encontrar formas en que el programa de IA podría ser mal utilizado. No se ha dado a conocer al público.

     OpenAI lanzó previamente un programa llamado Dall-E 2 que produce imágenes fijas basadas en descripciones de texto.

    Sam Altman, director ejecutivo de OpenAI, pidió a los usuarios de X que enviaran descripciones de texto para Sora. Luego compartió sus creaciones.

     “Nos gustaría mostrarte lo que Sora puede hacer”, escribió en X. “¡No te detengas en los detalles o la dificultad!”.

     Una persona pidió “una carrera de bicicletas en el océano con diferentes animales como atletas montados en las bicicletas con vista de cámara de dron”. Altman publicó un video generado por Sora de pingüinos, delfines y otras criaturas acuáticas en bicicleta en su respuesta.

     Otro video mostraba a una mujer sonriente de cabello blanco con un delantal invitando a los espectadores a entrar en su cocina. Sora generó el video de IA después de que le pidieran a Altman una lección de cocina “para ñoquis caseros organizada por una abuela influencer de las redes sociales ambientada en una cocina rústica de la Toscana con iluminación cinematográfica”.

     La tecnología todavía tiene algunas fallas, dijo la compañía, incluidos algunos problemas espaciales.

     La empresa dijo que es consciente del potencial de Sora para crear información errónea y contenido de odio, entre otras cosas. Los deepfakes impulsados por IA han surgido como un riesgo que podría confundir al público antes de las elecciones presidenciales de 2024, dijeron los investigadores. OpenAI ha dicho que está tomando medidas para prepararse para las elecciones, lo que incluye la prohibición del uso de sus herramientas para campañas políticas.

     Poner marcas de agua en videos e imágenes generados por IA, como muchas empresas dijeron que harían, puede ayudar, de acuerdo con Siwei Lyu, director de Media Forensic Lab en University at Buffalo. Pero en muchos casos, las marcas de agua pueden eliminarse o alterarse, dijo.

     A medida que surjan programas de IA como Sora, la tecnología se sumará a los desafíos existentes con los deepfakes de imagen y audio, dijo Lyu.

     El grupo de expertos elegido para probar las formas en que se puede abusar de Sora proporcionará comentarios sobre cómo fortalecer sus protecciones, dijo OpenAI.

      “También estamos construyendo herramientas para ayudar a detectar contenido engañoso, como un clasificador de detección que puede decir cuándo Sora generó un video”, dijo la compañía.

     El uso de un clasificador de imágenes, que analiza el video antes de su lanzamiento para marcar material problemático como la desnudez o la violencia, es positivo, dijo Arthur Holland Michel, miembro principal de Carnegie Council para revisar la ética en asuntos internacionales y quien estudia la inteligencia artificial y las tecnologías de vigilancia. Sin embargo, las cosas se complican cuando herramientas como Sora caen en manos de actores sofisticados que realmente quieren hacer daño con nuevas iteraciones de tecnología, dijo.

      “Cada vez que se lanza un nuevo producto que tiene mayores capacidades, mayor es la variedad de formas en que potencialmente puede ser mal utilizado”, dijo.

 

 


Fecha de publicación: 23/02/2024

Etiquetas: OpenAI tecnología IA videos Sora empresas Google Meta