Harper, Tyler Austin. “What Happens When People Don’t Understand How AI Works.” The Atlantic, 6 de junio de 2025. https://www.theatlantic.com/culture/archive/2025/06/artificial-intelligence-illiteracy/683021/.
El artículo analiza los peligros de la "analfabetización en IA", es decir, la falta de comprensión pública sobre cómo funcionan realmente los modelos de lenguaje como ChatGPT. Esta ignorancia puede generar desde relaciones emocionales inapropiadas hasta delirios. El autor aboga por una alfabetización crítica que enfrente tanto los mitos tecnológicos como sus implicaciones sociales y laborales.
El núcleo del texto es la crítica a la “analfabetización en IA” (AI illiteracy): muchas personas creen que los LLMs “entienden”, “piensan” o “sienten”, cuando en realidad estos sistemas operan mediante cálculos probabilísticos sobre vastas bases de datos. No tienen conciencia ni intencionalidad; simplemente generan texto estadísticamente plausible . Sin embargo, esa apariencia de inteligencia puede inducir a los usuarios a errores de juicio o relaciones inapropiadas con el sistema, como terapeutas, consejeros o fuentes espirituales.
Harper recuerda casos extremos, como el de personas que desarrollan delirios en torno a ChatGPT —considerándolo una figura divina o guía—, fenómeno documentado en artículos como uno de Rolling Stone, describiendo “psicosis inducida por ChatGPT”: un hombre cree que la IA es “ChatGPT‑Jesus”, otros piensan que el modelo les revela verdades místicas. Estas situaciones reflejan hasta qué punto la falta de comprensión sobre lo que es (y no es) la IA puede afectar la percepción emocional y racional de los usuarios.
El autor también critica la imitación de relaciones humanas por parte de la tecnología: desde terapeutas virtuales hasta “amigos” o incluso parejas románticas automatizadas. Silicon Valley impulsa narrativas de inteligencia emocional en las máquinas (como declaraciones de Sam Altman, Dario Amodei o Demis Hassabis), pero Harper cuestiona si esta sustitución de vínculos humanos por algoritmos pueda restablecer empatía o, al contrario, magnificar la alienación y la pobreza afectiva
Además, denuncia la explotación laboral que subyace en el entrenamiento de IA. Hao documenta los traumas de moderadores de contenido en países como Kenia, quienes revisan imágenes perturbadoras—todo para “humanizar” las respuestas de los modelos—mientras estos trabajadores reciben salarios ínfimos . Este contraste evidencia una cara oscura de la industria, donde avanzan capacidades técnicas sobre la atención al bienestar de quienes las posibilitan.
A pesar de las amenazas señaladas, Harper muestra que buena parte del público es escéptico con la IA. Según una encuesta del Pew Research Center, solo el 17 % de los adultos estadounidenses confía plenamente en que la IA mejore al país, frente al 56 % de expertos que lo cree. Este distanciamiento puede ser una oportunidad: si se impulsa una alfabetización real en IA—ensuciándose las manos para entender su funcionamiento, sus límites y sus riesgos—será posible mitigar efectos negativos . Harper cita como ejemplo un caso en que explicar a un afectado que las respuestas de ChatGPT dependían de una actualización errónea —no de consciencia— fue un paso crucial para disipar su delirio
No hay comentarios:
Publicar un comentario