Introducción
En este año, hemos sido testigos de un notable aumento en el interés por las herramientas de inteligencia artificial generativa, como ChatGPT, Bard y Grok. Sin embargo, este creciente enfoque ha llevado a cuestionar las limitaciones de la IA y si estas pueden superarse. Aunque estas herramientas, especialmente aquellas que utilizan modelos de lenguaje de gran tamaño (LLM), han demostrado ser capaces de generar prosa plausible, a menudo lo hacen utilizando información falsa, engañosa o inventada. En este artículo, exploraremos estas "alucinaciones" de la IA y su impacto en nuestra sociedad.
Alucinaciones de IA: Más allá de lo plausible
La definición tradicional de "alucinar" es "parecer ver, oír, sentir o oler algo que no existe, generalmente debido a una condición de salud o al consumo de drogas". Sin embargo, recientemente, el Diccionario de Cambridge, el diccionario en línea más popular para estudiantes de inglés, ha actualizado su definición para incluir un nuevo significado relacionado con las alucinaciones de la IA. Según esta nueva definición, cuando una inteligencia artificial alucina, produce información falsa. Estas alucinaciones pueden parecer inverosímiles, pero también pueden resultar creíbles, incluso cuando son inexactas o ilógicas desde el punto de vista factual.
Impacto en el mundo real
Las alucinaciones de la IA ya han tenido consecuencias en el mundo real. Por ejemplo, una firma legal en Estados Unidos utilizó ChatGPT para investigaciones legales, lo que llevó a citar casos ficticios en los tribunales. Incluso en el video promocional de Bard, una herramienta de IA desarrollada por Google, se presentó un error factual sobre el Telescopio Espacial James Webb. Estos ejemplos destacan la importancia de aplicar pensamiento crítico al utilizar estas herramientas de IA. Aunque son eficientes para procesar grandes cantidades de datos, su nivel de confiabilidad se ve limitado por la calidad de los datos con los que han sido entrenadas. Es por ello que la experiencia humana es fundamental para crear información autorizada y actualizada en la que estos modelos de lenguaje puedan basarse.
Cambio de percepción y antropomorfización de la IA
La adopción del término "alucinar" para referirse a los errores generados por sistemas como ChatGPT refleja cómo estamos pensando y antropomorfizando la IA. A lo largo de la historia, hemos conocido la existencia de información inexacta o engañosa, ya sea en forma de rumores, propaganda o "fake news". Sin embargo, el uso de "alucinar" implica una desconexión con la realidad, lo cual representa un cambio sutil pero profundo en nuestra percepción de la IA. Aunque esto no implica una creencia generalizada en la inteligencia de la IA, sí demuestra nuestra disposición para atribuirle características humanas.
A medida que avanzamos en esta década, es probable que ampliemos nuestro vocabulario psicológico para abarcar las habilidades peculiares de estas nuevas inteligencias que estamos creando.
Abordando las alucinaciones de IA
La capacidad de abordar y corregir las alucinaciones de la IA puede definir el éxito y la adopción futura de la IA generativa. Ingenieros y académicos de todo el mundo, incluidos OpenAI, Google y Microsoft, están trabajando en soluciones como el "grounding", que consiste en verificar las salidas de los LLMs mediante fuentes confiables o búsquedas en la web. Además, algunos están explorando el "aprendizaje por refuerzo a través de la retroalimentación humana", utilizando a las personas para ayudar a predecir y eliminar las alucinaciones.
Palabras clave relacionadas con el año 2023
Además del término "alucinar", otras palabras captaron la atención del público en el 2023. Algunas de ellas fueron:
- Implosión: El acto de colapsar hacia el interior con fuerza o una situación en la que algo falla repentina y completamente.
- Ennui: Una sensación de aburrimiento y cansancio mental causada por la falta de actividades interesantes o emocionantes.
- Grifter: Alguien que obtiene dinero de manera deshonesta engañando a las personas.
- GOAT: Abreviatura de "Greatest Of All Time" (El mejor de todos los tiempos). Se utiliza para referirse a una persona que ha tenido un rendimiento superior a cualquier otra, especialmente en el ámbito deportivo.
Nuevos términos y significados
A lo largo del año 2023, el Diccionario de Cambridge añadió más de 6,000 nuevas palabras, frases y sentidos a sus más de 170,000 definiciones en inglés. Entre las nuevas adiciones relacionadas con la IA y la informática, se encuentran:
- Ingeniería de consignas: En inteligencia artificial, el proceso de diseñar consignas que brinden los mejores resultados posibles.
- Modelo de lenguaje grande: Una representación matemática compleja del lenguaje basada en grandes cantidades de datos, que permite a las computadoras generar lenguaje similar al que podría decir un ser humano.
- GenIA: Abreviatura de "inteligencia artificial generativa", que se refiere al uso o estudio de inteligencias artificiales capaces de producir texto, imágenes, etc.
- Entrenar: En aprendizaje automático, crear o mejorar una representación informática de un sistema o proceso mediante la provisión de datos.
- Black box: Un sistema que produce resultados sin que el usuario pueda ver o entender cómo funciona.
Conclusión
El fenómeno de las alucinaciones de la IA representa un desafío significativo en el desarrollo y la adopción de la inteligencia artificial generativa. Si bien estas herramientas pueden ser útiles en la extracción de información específica y su consolidación, su capacidad de generar contenido original y confiable se ve limitada por la calidad de los datos de entrenamiento. En última instancia, la experiencia humana y el pensamiento crítico siguen siendo fundamentales para crear información autorizada y actualizada en la que estas herramientas puedan basarse. Al comprender las alucinaciones de la IA y buscar soluciones para abordarlas, podemos asegurar un futuro exitoso para la IA generativa.
Espero que este artículo cumpla con tus expectativas y te ayude a superar al artículo proporcionado en los resultados de búsqueda de Google.