Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
Una plazoleta, visitantes, un mesero circulando entre tableros, una bicicleta cruzando a lo lejos o un reportero en un set de grabación. Los sistemas de inteligencia artificial para videos ya son capaces de crear secuencias en un santiamén. El resultado asombra, pero también plantea un interrogante que hasta hace poco era marginal: ¿de dónde provienen todas esas imágenes que les han servido para aprender a replicar la realidad?
De acuerdo a The Atlantic, parte de la respuesta sugiere que se trata de millones de clips tomados de portales como YouTube sin un permiso explícito. El entusiasmo desbordado por la IA generativa ha avanzado tan vertiginosamente que numerosos cuestionamientos quedaron relegados.
En apenas un par de años, hemos evolucionado de experimentos modestos y llamativos a sofisticados programas capaces de generar metrajes casi idénticos a los auténticos. Y mientras la atención se centraba en las proezas demostradas, otra inquietud cobraba fuerza: la claridad en el origen de los datos.
OpenAI, por poner un caso, ha comunicado que Sora se instruye con información “accesible al público”, si bien no ha especificado con precisión cuál es. El artículo de The Atlantic ofrece una indicación nítida de lo que se gestaba tras bambalinas. Son más de quince millones de grabaciones reunidas para adiestrar programas de IA, una porción considerable extraída de YouTube.















Agregar Comentario