OpenAI La directora de tecnología, Mira Murati, se sentó recientemente con The Wall Street Journal para revelar detalles interesantes sobre su próximo generador de texto a video, Sora.
La entrevista cubre una amplia gama de temas, desde el tipo de contenido que producirá el motor de IA hasta las medidas de seguridad que se implementarán. La lucha contra la desinformación es un punto conflictivo para la empresa. Murati afirma que Sora tendrá múltiples barandillas de seguridad para garantizar que no se haga un mal uso de la tecnología. Ella dice que el equipo no se sentiría cómodo publicando algo que «podría afectar las elecciones globales». Según el artículoSora seguirá las mismas políticas rápidas que Dall-E, lo que significa que se negará a crear «imágenes de figuras públicas» como el presidente de los Estados Unidos.
También se agregarán marcas de agua. Un transparente Abierto AI El logotipo se puede encontrar en la esquina inferior derecha, lo que indica que se trata de imágenes de IA. Murati añade que también pueden adoptar la procedencia del contenido como otro indicador. Utiliza metadatos para brindar información sobre los orígenes de los medios digitales. Todo eso está muy bien, pero puede que no sea suficiente. El año pasado, un grupo de investigadores logró para romper las «protecciones actuales de marcas de agua de imágenes», incluidas las que pertenecen a OpenAI. Con suerte, se les ocurrirá algo más difícil.
Características generativas
Las cosas se ponen interesantes cuando empiezan a hablar de soraEl futuro. En primer lugar, los desarrolladores tienen planes de «eventualmente» agregar sonido a los videos para hacerlos más realistas. Las herramientas de edición también están en el itinerario, brindando a los creadores en línea una forma de corregir los muchos errores de la IA.
Por muy avanzado que sea Sora, comete muchos errores. Uno de los ejemplos destacados de la pieza gira en torno a un mensaje de vídeo que le pide al motor que genere un vídeo en el que un robot roba la cámara de una mujer. En cambio, el clip muestra a la mujer convirtiéndose parcialmente en un robot. Murati admite que hay margen de mejora y afirma que la IA es «bastante buena en continuidad, [but] no es perfecto”.
La desnudez no está descartada. Murati dice que OpenAI está trabajando con «artistas… para determinar» qué tipo de contenido desnudo se permitirá. Parece que el equipo estaría de acuerdo con permitir la desnudez «artística» y al mismo tiempo prohibir cosas como falsificaciones profundas no consensuadas. Naturalmente, a OpenAI le gustaría evitar ser el centro de una posible controversia, aunque quiere que su producto sea visto como una plataforma que fomenta la creatividad.
Pruebas en curso
Cuando se le preguntó sobre los datos utilizados para entrenar a Sora, Murati se mostró un poco evasivo.
Comenzó afirmando que no sabía qué se usaba para enseñar la IA, aparte de que eran «datos disponibles públicamente o bajo licencia». Es más, Murati no estaba seguro de si los vídeos de YouTube, Facebook o Instagram fueron parte de la capacitación. Sin embargo, más tarde admitió que efectivamente se utilizaron medios de Shutterstock. Las dos empresas, si no lo sabes, tener una sociedad lo que podría explicar por qué Murati estaba dispuesto a confirmarlo como fuente.
Murati afirma que Sora se lanzará «definitivamente» a finales de año. No dio una fecha exacta aunque podría ocurrir en los próximos meses. Por ahora, los desarrolladores están realizando pruebas de seguridad del motor en busca de «vulnerabilidades, sesgos y otros resultados dañinos».
Si estás pensando en probar Sora algún día, te sugerimos aprender a utilizar el software de edición. Recuerde, comete muchos errores y es posible que continúe cometiéndolos en el lanzamiento. Para obtener recomendaciones, consulte TechRadar’s El mejor software de edición de vídeo para 2024..