Tecnologia

Google toma “medidas rápidas” para eliminar resultados

8147861126.png
8147861126.png
Para hacer esto, utilizará estos ejemplos de comentarios incorrectos, con los que trabajará para desarrollar mejoras "más amplias" en su sistema.

MADRID, 27 mayo. (Portaltic/EP) –

Google dice que está tomando “medidas Actuar rápidamente” para eliminar resultados inexactos proporcionados por la función AI ​​Overview, impulsada por Gemini, que recientemente recomendó que los usuarios coman hielo como parte de su dieta o régimen de acondicionamiento físico con pegamento para pizza.

La compañía presentó Gemini a fines del año pasado como un producto flexible. IA que puede operar tanto en centros de datos como en dispositivos móviles. Es por eso que se ofrece en tres tamaños diferentes (Ultra, Pro y Nano).

Hace unas semanas, Google introdujo nuevas funciones en esta herramienta, que incluye una descripción general de AI, proporciona un resumen impulsado por AI. respuestas y desde entonces ha estado disponible en los EE. UU. Estados.

Esta función, un experimento de Search Labs, reemplazó a Search Generative Experience (SGE English), una solución experimental que llevaba IA creativa a las búsquedas de los usuarios según su solicitud. con descripciones generales y más enlaces en un esfuerzo por proporcionar múltiples perspectivas.

Desde su implementación, Overview AI ha generado una serie de respuestas incorrectas que los usuarios probaron y compartieron en sus redes sociales. Entre ellas, la recomendación de «comer al menos una pequeña piedra al día, según geólogos de la Universidad de Berkeley», fue compartida por la usuaria Kris Kashtanova en su perfil X.
Otro usuario etiquetado en Este Una red social como @heavenred informó que AI Overview recomendó usar pegamento «no tóxico» en la pizza para que el queso se derrita con la masa.

La empresa asegura que su herramienta genera en gran medida «alta «Información de calidad» y justifica que estas respuestas se deben a «consultas inusuales», además de que pueden haber sido manipuladas, según su portavoz. declaración, Meghann Garnsworth, reportada por The Verge. Para poner fin a lo que también se conocen como alucinaciones -respuestas que, aunque aparentemente coherentes, incluyen información falsa o sesgo- no está respaldado por los datos en los que fueron capacitados: Google está tomando «medidas rápidas» para poner fin a estas respuestas.

Del mismo modo, aclaran que buscan eliminar descripciones generales de IA en ciertas consultas «cuando corresponda» de acuerdo con su política de contenido. . Para hacer esto, utilizará estos ejemplos de comentarios incorrectos, con los que trabajará para desarrollar mejoras «más amplias» en su sistema.

TRA Digital

GRATIS
VER