Google no perdió tiempo en lanzar su chatbot de IA Bard a principios de 2023 tras la revelación de ChatGPT en Microsoft Bing, pero quizá debería haber ahorrado un poco de tiempo. Bard se lanzó con fallos embarazosos, y Google sigue disculpándose por la IA. No es que Bard sea peor que otras IA generativas, pero la propia Google es un centro de información. Producir un producto que miente es una experiencia nueva para Google, por lo que se recomienda a cualquiera que utilice Bard que compruebe los hechos con, lo has adivinado, una búsqueda en Google.
Debbie Weinstein, directora de operaciones de Google en el Reino Unido, explicó recientemente el problema de fiabilidad a la BBC. Bard "no es realmente el lugar al que se acude para buscar información específica", afirmó Weinstein. "Estamos animando a la gente a que utilice Google como motor de búsqueda para consultar la información que han encontrado".
Puede leer también | Cuidado WormGPT, la herramienta de inteligencia artificial produce resultados inquietantes
Google califica Bard de "experimento", al igual que la Experiencia de Búsqueda Generativa (SGE) que está probando en los resultados de búsqueda. Weinstein afirma que Bard se utiliza mejor para resolver problemas y experimentar con nuevas ideas. Sin embargo, Google es el lugar al que la gente acude en busca de respuestas, lo que convierte a este robot mentiroso en una especie de lastre.
Puede leer también | La Inteligencia Artificial podría interpretar los datos de tu smartwatch para detectar el Parkinson hasta 7 años antes
Bard no es el único: todas las IA generativas son propensas a las llamadas "alucinaciones", en las que la IA se inventa hechos. Un chatbot como Bard puede incluso intentar justificar esas mentiras, haciéndolas más creíbles. Nadie ha descubierto aún cómo detener las alucinaciones de la IA, porque la IA generativa no funciona como el usuario medio espera. Los algoritmos que subyacen a Bard y ChatGPT han ingerido una montaña de datos, lo que les convierte en grandes escupidores de textos bien compuestos. Sin embargo, sólo están generando texto que suena como lo que han visto antes; la IA no tiene ningún concepto de lo que es verdad.
Puede leer también | Una nueva herramienta de inteligencia artificial puede identificar con precisión el cáncer
A pesar de estar disponible en Internet, Bard no comprueba sus propios datos. Así que Weinstein tiene razón al recordar a la gente que haga una búsqueda rápida: es una buena política si utilizas Bard o cualquier servicio similar. Aun así, el hecho de que Google tenga que seguir diciendo a la gente que no confíe en uno de sus productos da mala imagen, y ni siquiera es coherente. Mientras nos advierte de que la IA no es de fiar, Google mete el SGE con IA en la interfaz de búsqueda. La gente podría enfrentarse al mismo problema de hechos imaginarios al verificar los resultados de Bard, sin darse cuenta de que el SGE tiene las mismas limitaciones.
Puede leer también | Google añadirá una función de chat con inteligencia artificial al motor de búsqueda, según su consejero delegado
Es imposible saber si la IA acabará convirtiéndose en un oráculo omnisciente que cambie nuestra forma de buscar en Internet, pero lo cierto es que no será pronto.