Tecnologia

Google ignoró fallas éticas de su nuevo chatbot en su afán por ganar la carrera de la IA

64424da559bf5b5d9d43db8a
64424da559bf5b5d9d43db8a
Al mismo tiempo, anuló una evaluación de riesgos presentada por miembros de su equipo, que afirmaba que Bard no estaba listo porque podría causar daño, y reformuló el lanzamiento del chatbot como un "experimento".

RT.- Bard, el nuevo chatbot de Google, está brindando información de baja calidad, dudosa y hasta peligrosa. En su afán por mantenerse en la carrera de la inteligencia artificial (IA), el gigante tecnológico estaría dando menos prioridad a la ética y prestando poca atención a los daños potenciales de sus nuevos productos.

Según 18 personas consultadas, entre empleados y exempleados de Google, y documentación interna revisada por Bloomberg, su modelo de IA generativa es «un mentiroso patológico» que puede llegar a ofrecer consejos que conducirían a un accidente o respuestas que «probablemente resultarían en lesiones graves o la muerte».

En febrero, antes del lanzamiento al público en marzo de Bard, otro miembro de la empresa ya había advertido que el ‘software’ era «peor que inútil» y había pedido no lanzarlo. Su mensaje, enviado por un chat interno, fue visto por casi 7.000 personas, muchas de las cuales coincidieron con que ofrecía datos contradictorios y hasta notoriamente incorrectos en consultas simples.

A pesar de los inconvenientes que pudiera presentar la herramienta, Google decidió acelerar el ritmo de su desarrollo, luego del debut del chatbot de su rival, OpenAI, en noviembre del 2022, y en medio del pánico por no tener el suyo. De este modo, sus altas directivas emitieron un «código rojo» y se asumió el riesgo de incorporar IA generativa en todos sus productos en cuestión de meses, comentaron sus trabajadores.

En este contexto, empleados aseguran que a los miembros del personal que son responsables de la seguridad y las implicaciones éticas de los nuevos productos se les ha dicho que no se interpongan en el camino ni intenten detener el desarrollo del cualquier IA generativa. «La ética de la IA ha pasado a un segundo plano», subraya Meredith Whittaker, exgerente de Google.

Gennai, encargada de defender los principios de IA de la empresa, sugirió en una reunión este mes que era necesario modificar algunos compromisos para acelerar el ritmo de lanzamientos de productos. Así, si anteriormente debían superaran el 99% en métricas como la «equidad», ahora era suficiente «estar en 80-85% o algo así».

Al mismo tiempo, anuló una evaluación de riesgos presentada por miembros de su equipo, que afirmaba que Bard no estaba listo porque podría causar daño, y reformuló el lanzamiento del chatbot como un «experimento».

 

TRA Digital

GRATIS
VER