Tecnologia

El laberinto de la regulación de la inteligencia artificial

caruri 2381.png
caruri 2381.png
MIAMI -- Si la humanidad no regula adecuadamente la inteligencia artificial (IA), podría enfrentarse a una serie de graves problemas que podrían afectar no sólo a los beneficios que aporta, sino t.

MIAMI — Si la humanidad no regula adecuadamente la inteligencia artificial (IA), podría enfrentarse a una serie de graves problemas que podrían afectar no sólo a los beneficios que aporta, sino también a muchos aspectos de la sociedad, la economía, la salud, la educación y la vida cotidiana en general.

Más de 10.000 expertos y especialistas en IA, entre ellos Elon Musk, Steve Wozniak y Yuval Noah Harari, pidieron en una carta el pasado mes de marzo un análisis más profundo y el inicio de un marco jurídico regional o mundial sobre cómo detener y poner bajo control este novedoso avance tecnológico. El documento afirma, en parte, que la IA provocará cambios significativos en la historia de la vida en la Tierra.

El documento, firmado por los propietarios y directores ejecutivos de las empresas digitales más destacadas que invierten en el desarrollo de la IA, afirma que en los últimos meses algunos desarrolladores de IA se han descontrolado y están desarrollando mentes digitales cada vez más poderosas y, como resultado, los propios desarrolladores de IA están llegando a una fase en la que ya no pueden comprender, predecir ni controlar También advierten de que esto debe detenerse, ya que ha llegado a un punto en el que los propios desarrolladores de IA no pueden comprenderla, predecirla o controlarla.

Según un estudio de la Universidad de Stanford, en California (EE.UU.), actualmente hay más de 100 países que estudian la legalización de la inteligencia artificial.

Denominado Índice de Inteligencia Artificial 2023, el estudio documenta que al menos 127 países han iniciado el proceso de regulación y legislación de esta nueva tecnología.

Estados Unidos ha aprobado 22 leyes, Portugal 13, España 10, Italia y Rusia 9, Bélgica 7 y Reino Unido 6.

Gabriel Corbella, ingeniero en sistemas y experto, dijo a EL UNIVERSAL desde Nueva York: ¿cuánto tiempo cree que tardará en regularse la IA? La respuesta será entre seis y 11 años por el momento, agrega el experto.

Lee también: No seas víctima de un delito con IA, recomienda policía de la CDMX.

El pasado 30 de octubre, el presidente de Estados Unidos, Joe Biden, firmó una Orden Ejecutiva que obliga a casi todas las empresas privadas que desarrollen o utilicen IA a informar a la Casa Blanca sobre sus sistemas de seguridad antes de hacer públicas sus propuestas comerciales.

La intención del Presidente Biden es encontrar un término medio, reconociendo el desarrollo de la IA, pero con normas claras que garanticen el rendimiento de la tecnología para dar seguridad al Estado y a sus usuarios.

La Vicepresidenta Kamala Harris también anunció a principios de noviembre la creación del Instituto de Seguridad de la IA de EE.

Durante este anuncio, la Vicepresidenta Harris también se refirió a la importancia de proteger a los ciudadanos de los peligros potenciales que plantean las nuevas tecnologías, incluida la discriminación y el potencial de desinformación que ya existe.

Habló de los riesgos que plantean las nuevas tecnologías de ciberataques asistidos por IA y elogió la Orden Ejecutiva de Biden como un gran éxito para ayudar a los países a mantener su derecho a la autodefensa y desarrollar sus propias estrategias y armas asistidas por IA en materia militar.

La AISI estadounidense será la agencia encargada de elaborar directrices, prácticas, materiales de referencia y herramientas para la toma de decisiones en situaciones consideradas peligrosas y de alto riesgo. También se prestará especial atención a la privacidad, la transparencia y la discriminación. Los retos son muchos, afirma Corbella. A medida que esta tecnología avance a pasos agigantados, será más necesaria una regulación adecuada para mitigar riesgos, proteger derechos y promover un desarrollo responsable y ético.

Entender y definir qué constituye la IA es una prioridad, a partir de la cual los reguladores pueden identificar áreas de riesgo, comprender el alcance de esta tecnología y establecer un marco legal, subraya Corbella.

La Unión Europea ha desarrollado una legislación, conocida como Ley de Inteligencia Artificial, que entrará en vigor en 2024, en la que se pide un uso responsable, transparente y respetuoso con los derechos humanos de la IA.

La propuesta contiene tres elementos. Estos son: respeto a la intervención y supervisión humanas para evitar la discriminación y proteger los derechos fundamentales; responsabilidad civil para proteger a los ciudadanos y garantizar la seguridad jurídica de las empresas; y garantías para los derechos de propiedad intelectual.

Las leyes que se aprueben hoy no serán decisivas. Es un proceso muy complejo, pero esencial para evitar problemas futuros.

Las leyes que se elaboren deben establecer definiciones claras, promover la ética y la transparencia, proteger la privacidad, aclarar responsabilidades y fomentar la innovación.

Además, la cooperación internacional es clave para salir de este laberinto y garantizar que la IA beneficia a toda la sociedad, minimiza los riesgos y maximiza su potencial positivo.

Varios expertos consultados coincidieron en que, a falta de una legislación clara y eficaz sobre IA, los riesgos más delicados son el plagio y la falsificación de fotografías, música y libros protegidos por derechos de autor; la pérdida de puestos de trabajo debido a la automatización en un futuro próximo; y la discriminación a la hora de tomar decisiones en los ámbitos del empleo, la vivienda, la sanidad y la justicia penal.

También se señaló que la privacidad está en peligro debido a la capacidad de la IA para recopilar, analizar y almacenar los datos personales más importantes. Del mismo modo, la seguridad nacional está en peligro si no se regula.

Las noticias falsas y las noticias profundas son dos problemas que la IA podría exacerbar, no sólo difundiendo información errónea, sino también desacreditando a las empresas implicadas y fomentando el miedo social.

Sin regulación, la IA podría llevar a desarrollos descontrolados y peligrosos. Del mismo modo, la falta de legislación podría ampliar la brecha generacional entre quienes tienen acceso a esta tecnología y quienes no, dando más poder a determinados sectores políticos, comerciales, industriales y tecnológicos.

En una reciente entrevista, el CEO de Google, Sundar Pichai, afirmó que las empresas que desarrollan IA deben pasar por un riguroso proceso de investigación y seguir unos principios rectores. Afirmó que esta nueva tecnología lo tiene todo para mejorar la vida humana, pero dejó claro que es esencial garantizar que se desarrolle de forma responsable para beneficiar a todos e inspirar a las nuevas generaciones.

Regular la inteligencia artificial no es un proceso fácil. La inteligencia artificial es una tecnología multifuncional, por lo que su regulación requiere la participación no sólo de juristas e ingenieros de sistemas, sino también de filósofos, sociólogos, psicólogos, economistas, educadores, expertos en medicina, ciencias de la información, robótica, IA, arte, diseño y muchas otras disciplinas de todo el mundo. Es urgente regular adecuadamente los sistemas de inteligencia artificial. De lo contrario, advierte Amnistía Internacional, se corre el riesgo de que el uso indebido de esta tecnología fomente la desigualdad y la discriminación.

TRA Digital

GRATIS
VER