Tecnologia

La IA no es tu aliada

8811625438.png
Debemos ser honestos al respecto y rechazar el marketing engañoso que sugiere lo contrario.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

ZÚRICH – Mark Zuckerberg, director ejecutivo de Meta, y Sam Altman, de OpenAI, han estado promoviendo con insistencia la idea de que todo el mundo -niños incluidos- debería relacionarse con “amigos” o “compañeros” de IA. Paralelamente, las multinacionales tecnológicas impulsan el concepto de “agentes de IA” concebidos para asistirlos en su vida personal y profesional, gestionar tareas rutinarias y orientarlos en la toma de decisiones.

Pero la verdad es que los sistemas de IA no son, ni serán jamás, amigos, compañeros o agentes. Son y seguirán siendo máquinas. Debemos ser honestos al respecto y rechazar el marketing engañoso que sugiere lo contrario.

El término más equívoco de todos es “inteligencia artificial”. Estos sistemas no son realmente inteligentes, y lo que hoy llamamos “IA” es simplemente un conjunto de herramientas técnicas diseñadas para imitar determinadas funciones cognitivas. No son capaces de una verdadera comprensión y carecen de objetividad, equidad y neutralidad.

Tampoco son cada vez más inteligentes. Los sistemas de IA dependen de datos para funcionar, y cada vez más, eso incluye los datos generados por herramientas como ChatGPT. El resultado es un ciclo de retroalimentación que recicla los resultados sin producir una comprensión más profunda.

La inteligencia, fundamentalmente, no consiste solo en resolver tareas, sino también en cómo se abordan y ejecutan esas tareas. A pesar de sus capacidades técnicas, los modelos de IA siguen limitados a ámbitos concretos, como el procesamiento de grandes conjuntos de datos, la realización de deducciones lógicas y la ejecución de cálculos.

Sin embargo, en lo que respecta a la inteligencia social, las máquinas solo pueden simular emociones, interacciones y relaciones. Un robot médico, por ejemplo, podría programarse para llorar cuando llora un paciente, pero nadie diría que siente verdadera tristeza. El mismo robot podría programarse para abofetear al paciente, y ejecutaría esa orden con la misma precisión -y con la misma falta de autenticidad y autoconciencia-. La máquina no “se preocupa”, simplemente sigue instrucciones. Y por muy avanzados que lleguen a ser estos sistemas, eso no va a cambiar.

En pocas palabras, las máquinas carecen de agencia moral. Su comportamiento se rige por patrones y normas creadas por las personas, mientras que la moralidad humana se basa en la autonomía -la capacidad de reconocer las normas éticas y comportarse en consecuencia-. Por el contrario, los sistemas de IA están diseñados para la funcionalidad y la optimización. Pueden adaptarse mediante el autoaprendizaje, pero las reglas que generan no tienen un significado ético inherente.

Pensemos en los coches autónomos. Para ir del punto A al punto B lo más rápido posible, un vehículo autónomo podría desarrollar reglas para optimizar el tiempo de viaje. Si atropellar a los peatones ayudara a lograr ese objetivo, el coche podría hacerlo, a menos que se le ordenara no hacerlo, porque no puede entender las implicaciones morales de dañar a las personas.

Esto se debe en parte a que las máquinas son incapaces de comprender el principio de generalización -la idea de que una acción solo es ética si puede justificarse como regla universal-. El juicio moral depende de la capacidad de ofrecer una justificación plausible que otros puedan aceptar razonablemente. Es lo que solemos denominar “buenas razones”. A diferencia de las máquinas, los seres humanos son capaces de realizar razonamientos morales generalizables y, por lo tanto, pueden juzgar si sus acciones son correctas o incorrectas.

El término “sistemas basados en datos” (SBD) es, por lo tanto, más apropiado que “inteligencia artificial”, ya que refleja lo que la IA puede hacer realmente: generar, recopilar, procesar y evaluar datos para hacer observaciones y predicciones. También deja en claro las fortalezas y las limitaciones de las tecnologías emergentes de hoy.

En esencia, se trata de sistemas que utilizan procesos matemáticos muy sofisticados para analizar grandes cantidades de datos -nada más-. Los humanos pueden interactuar con ellos, pero la comunicación es completamente unidireccional. Los SBD no son conscientes de lo que “hacen” ni de nada de lo que ocurre a su alrededor.

Esto no implica que los SBD no puedan beneficiar a la humanidad o al planeta. Al contrario, podemos y debemos confiar en ellos en ámbitos en los que sus capacidades superan las nuestras. Pero también debemos gestionar y mitigar activamente los riesgos éticos que presentan. El desarrollo de sistemas de datos basados en los derechos humanos y la creación de una Agencia Internacional de Sistemas Basados en Datos de Naciones Unidas serían primeros pasos importantes en esa dirección.

En los últimos 20 años, las Grandes Tecnológicas nos han aislado y han fracturado nuestras sociedades a través de las redes sociales -más correctamente definidas como “redes antisociales”, dada su naturaleza adictiva y corrosiva-. Hoy, esas mismas empresas promueven una nueva visión radical: sustituir la conexión humana por “amigos” y “compañeros” de IA.

Al mismo tiempo, estas empresas continúan ignorando el llamado “problema de la caja negra”: la imposibilidad de rastrear, la imprevisibilidad y la falta de transparencia de los procesos algorítmicos que sustentan las evaluaciones, predicciones y decisiones automatizadas. Esta opacidad, combinada con la alta probabilidad de que los algoritmos sean sesgados y discriminatorios, da lugar inevitablemente a resultados sesgados y discriminatorios.

Los riesgos que plantean los SBD no son teóricos. Estos sistemas ya condicionan nuestras vidas privadas y profesionales de formas cada vez más perjudiciales, manipulándonos económica y políticamente. Sin embargo, los directores ejecutivos de las tecnológicas nos instan a dejar que las herramientas de SBD guíen nuestras decisiones. Para proteger nuestra libertad y dignidad, así como la de las generaciones futuras, no debemos permitir que las máquinas se hagan pasar por lo que no son: nosotros.

El autor

TRA Digital

GRATIS
VER