Tecnologia

En 2023, el boom de la inteligencia artificial ‘cotidiana’

caruri 1866.png
caruri 1866.png
VALÈNCIA (EFE/Noemí G. Gómez). Las palabras "inteligencia" y "artificial" se combinaron por primera vez en la década de 1950 y, aunque se ha avanzado mucho desde entonces, el verdadero boom no ha.

VALÈNCIA (EFE/Noemí G. Gómez). Las palabras «inteligencia» y «artificial» se combinaron por primera vez en la década de 1950 y, aunque se ha avanzado mucho desde entonces, el verdadero boom no ha hecho más que empezar: 2023 es el año de la IA «cotidiana», que aún se enfrenta a muchos retos, como la protección de la infancia, la privacidad, la desinformación y la parcialidad.

Aunque los asistentes de voz, la monitorización de redes sociales, los sistemas de navegación y el servicio de atención al cliente se utilizan desde hace años, la verdadera revolución de la tecnología es el modelo de inteligencia artificial (IA) generativa, capaz de crear conversacionalmente texto, fotos, vídeos y música a partir de miles de datos existentes, Esto lo ha propiciado especialmente ChatGPT.

A pesar de la intensa presencia de la IA en nuestras vidas (casi, donde no existe debería ser una pregunta), ChatGPT ha llevado la inteligencia artificial a los titulares de los medios de comunicación y el discurso, según la Fundación ELLIS Alicante, que se centra en la investigación ética y responsable de la IA para el bien social. explica a EFE Nuria Oliver, cofundadora y directora científica.

Oliver, doctora en Inteligencia Artificial por el Instituto Tecnológico de Massachusetts (MIT), señala. Ahora, con la democratización del acceso y uso de herramientas como ChatGPT, la sociedad se ha dado cuenta de que ChatGPT es en realidad un software y no necesariamente un robot.

La primera en hacerse con un trozo de este pastel de la fama fue la empresa estadounidense OpenAI, que puso a disposición del público su chatbot ChatGPT el 30 de noviembre de 2022. Pocos meses después, en 2023, ya se lanzó una versión mejorada (GPT-4) y competidores como Google entraron en el mercado con el modelo Bard.

Estos y otros sistemas de inteligencia artificial basados en el aprendizaje automático empiezan a impregnar la vida cotidiana, incluyendo la enseñanza, los diagnósticos médicos, los mercados financieros, la investigación científica y espacial y la predicción meteorológica.

Sin embargo, la vertiginosa velocidad a la que se están extendiendo, especialmente la inteligencia artificial generativa, está suscitando preocupación por los datos y la privacidad, los prejuicios o la IA como nueva forma de violencia contra mujeres y niñas -como los falsos desnudos de menores en Almendralejo, Badajoz-.

Precisamente por esta rapidez, más de 33.700 expertos de diferentes ámbitos de todo el mundo, incluida España, se unieron el pasado mes de marzo en una carta abierta en la que pedían al Instituto que suspendiera la formación en sistemas más potentes que el GPT-4 durante al menos seis meses.

Detrás de esta petición, firmada también por destacados empresarios del sector tecnológico, estaba la necesidad de prever y regular las posibles consecuencias del uso de la GPT-4.

Sin embargo, la carta contó con la oposición de otros sectores de la ciencia y la tecnología, que la consideraron una distracción para evitar abordar los verdaderos retos de la IA, cuyo desarrollo no puede detenerse y que es fundamental para hacer frente a grandes desafíos como el cambio climático.

No obstante, Open AI, que actualmente cuenta con una importante financiación de Microsoft, acordó dejar en suspenso (por el momento) el desarrollo de ChatGPT-5, pero anunció el mes pasado que lanzaría su chatbot más potente entrenado con datos, GPT-4 Turbo, hasta abril de 2023.

Independientemente de estos desacuerdos, en lo que coinciden la mayoría de los expertos es en la necesidad de una regulación (en lugar de una prohibición). La Unión Europea ha aprobado la primera ley mundial sobre IA.

Todavía provisional y sujeta a ratificación por el Parlamento Europeo y el Consejo de la UE, la ley permite o prohíbe el uso de la inteligencia artificial, en función de los riesgos que plantee. Por ejemplo, prohíbe todos los sistemas de clasificación biométrica basados en creencias políticas, religiosas o filosóficas, raza y orientación sexual, y rechaza los sistemas que reconocen las emociones en el lugar de trabajo y las escuelas.

La legislación se ha quedado rezagada con respecto a los avances de la informática en este ámbito, y en particular ha tenido que adaptarse a la evolución de otro punto fuerte: los sistemas generativos de IA.

En Europa hay que cumplir normas de transparencia, como declarar si los textos, canciones y fotos son generados por IA y garantizar que los datos utilizados para entrenar los sistemas respetan los derechos de autor.

El peligro y la preocupación de este tipo de inteligencia artificial es que busca resultados verosímiles, no necesariamente la verdad. Hay muchos ejemplos, como las fotos ultrarrealistas del Papa Francisco emplumado de blanco o Donald Trump resistiéndose a ser detenido.

Pero también los hay más graves que implican a menores, como el caso de las falsas imágenes de desnudos de las niñas de Almendralejo.

Precisamente por este asunto, la Agencia Española de Protección de Datos inició una investigación de oficio el pasado mes de septiembre. No es la primera vez que la Agencia toma cartas en el asunto en materia de IA.

La Agencia también abrió un procedimiento de investigación preliminar contra OpenAI por posible incumplimiento de la normativa española y europea de protección de datos.

Con la explosión del ChatGPT y otras herramientas similares, los usuarios están arrojando mucha información, no sólo sobre sí mismos sino también sobre los demás, y existe incertidumbre sobre qué datos recopilan las empresas y cómo los manejan, si se transfieren a terceros o a nivel internacional.

La IA tiene un inmenso potencial para afrontar los grandes retos del siglo XXI (omitido). Nuria Oliver declaró a EFE: «De hecho, sabemos que necesitamos la IA para sobrevivir como especie.

Los retos no son sólo la privacidad y la ciberseguridad, sino también la propagación de noticias falsas, los deepfakes que actúan como porno de venganza, el sesgo algorítmico y los estereotipos, la falta de diversidad en los equipos que inventan sistemas de IA (según la UNESCO, las mujeres son las únicas investigadoras en este campo solo el 12%), y la huella de carbono creada por la IA.

2023 es también el año de ChatGPT, Bard, Gemini (también de Google) y Bing (de Microsoft), seleccionados por la revista Nature como «científicos (no humanos) del año». ESMFold, un sistema de IA implantado por Meta, fue capaz de predecir la estructura de más de 740 millones de proteínas.

También se demostró que la IA detecta un 20% más de cánceres de mama en comparación con la doble lectura de mamografías por radiólogos, según se publicó en Lancet Oncology, y se utilizó el aprendizaje automático para crear un atlas unicelular de todo el pulmón humano.

Google lanzó GraphCast, una IA capaz de predecir variables meteorológicas de 10 días en todo el mundo en menos de un minuto, y se publicó en Science un estudio en el que también participó España.

Y Campofrío presentó un tradicional anuncio navideño, esta vez utilizando IA, unos días antes de comenzar (o continuar) Toulon.

TRA Digital

GRATIS
VER