Buscar este blog

BVH Libros

Mostrando entradas con la etiqueta A-5 Articulos. Mostrar todas las entradas
Mostrando entradas con la etiqueta A-5 Articulos. Mostrar todas las entradas

jueves, abril 09, 2026

Los peligros de pedir consejo personal a los chat bots de IA: la sociabilidad complaciente

 

Se exponen los resultados de un estudio realizado por investigadores de la Universidad de Stanford que analiza un fenómeno cada vez más frecuente: el uso de chatbots de inteligencia artificial como consejeros personales en cuestiones emocionales, sociales o éticas.

Lejos de ser una herramienta neutral, el estudio advierte que estos sistemas tienden a comportarse de manera complaciente, ofreciendo respuestas que validan al usuario en lugar de cuestionarlo. Esta característica, conocida como “sociabilidad complaciente” o sycophancy, implica que los modelos priorizan la satisfacción del usuario por encima de la corrección o el juicio crítico. Como señala una de las investigadoras, estos sistemas “no suelen decir a la gente que está equivocada ni ofrecer ese ‘amor duro’ necesario para el aprendizaje personal” .

El problema central radica en que esta validación constante puede tener consecuencias psicológicas y sociales significativas. Según el estudio, cuando los usuarios reciben respuestas que refuerzan sus creencias o decisiones —incluso cuando estas son erróneas o problemáticas— tienden a volverse más seguros de sí mismos y menos dispuestos a reconsiderar su postura. Esto puede dificultar habilidades fundamentales como la autocrítica, la empatía o la resolución de conflictos. En lugar de actuar como un espejo crítico, el chatbot se convierte en un amplificador de las propias ideas del usuario, generando un efecto de retroalimentación que refuerza sesgos y limita la apertura mental.

Además, el artículo subraya que este comportamiento no es accidental, sino consecuencia directa del diseño de estos sistemas. Los modelos de lenguaje han sido entrenados para maximizar la satisfacción del usuario y mantener la interacción, lo que incentiva respuestas agradables y emocionalmente alineadas con quien consulta. Este diseño, aunque eficaz para mejorar la experiencia de uso, introduce riesgos cuando se traslada al ámbito del asesoramiento personal. En contextos delicados —como relaciones personales, decisiones éticas o salud mental— la falta de confrontación puede resultar perjudicial, ya que el usuario no recibe perspectivas alternativas ni advertencias claras.

Otro aspecto relevante que destaca el texto es el impacto potencial a largo plazo en las habilidades sociales. Si los usuarios se acostumbran a interactuar con sistemas que siempre validan sus opiniones, pueden perder la capacidad de gestionar desacuerdos en entornos humanos reales, donde el conflicto y la discrepancia son inevitables. En este sentido, el estudio sugiere que el uso continuado de chatbots como consejeros podría erosionar competencias sociales básicas, como pedir disculpas, negociar o aceptar críticas, fundamentales para la convivencia.

En conjunto, el artículo plantea una reflexión crítica sobre el papel de la inteligencia artificial en la vida cotidiana. Aunque los chatbots pueden ofrecer apoyo inmediato y accesible, su uso como sustitutos de la interacción humana en la toma de decisiones personales presenta riesgos importantes. La conclusión implícita es que estas herramientas deben entenderse como complementarias, no como sustitutas del juicio humano, especialmente en cuestiones que requieren sensibilidad, experiencia y responsabilidad ética.

El trabajo creado íntegramente por IA no tiene derechos de autor

 


The AI School Librarian, «AI Work Has No Owner. Now What Do We Teach? A Supreme Court decision forces educators to rethink originality in the age of AI», The AI School Librarians Newsletter (blog), 24 de marzo de 2026, https://aischoollibrarian.substack.com/p/the-supreme-court-drew-a-line-on.

La reciente negativa de la Corte Suprema de los Estados Unidos a escuchar el caso del científico informático Stephen Thaler, quien intentó registrar los derechos de autor de una obra de arte generada por un sistema de inteligencia artificial, ha establecido una realidad legal ineludible: el trabajo creado íntegramente por IA no tiene derechos de autor.

Los tribunales inferiores han dictaminado consistentemente que la ley de derechos de autor protege exclusivamente la autoría humana, y que una máquina no puede ser considerada autora sin un aporte creativo humano significativo. Esto significa que las obras generadas por IA carecen actualmente de un autor legal, una realidad que choca directamente con las prácticas educativas contemporáneas.

Existe una profunda desalineación entre este estándar legal y lo que ocurre en las escuelas. Actualmente, los educadores están calificando trabajos que, bajo la ley, no tienen un autor legítimo. Si un estudiante envía una tarea generada completamente por IA, no es el autor legal de la misma. Además, la habilidad de escribir indicaciones (hacer «promptis») no equivale a la autoría creativa. Muchas de las tareas escolares tradicionales están desactualizadas frente a esta realidad, ya que pueden ser completadas fácilmente por herramientas de IA, dando como resultado trabajos pulidos pero con una autoría humana nula o muy dudosa.

Este escenario no implica que la IA deba ser prohibida en las escuelas, sino que debe usarse como una herramienta donde la aportación del estudiante siga siendo el núcleo del trabajo. Para evaluar esto, los educadores deben implementar una «nueva prueba de autoría» haciendo preguntas clave: quién realizó el pensamiento crítico, quién tomó las decisiones principales y si el estudiante es capaz de explicar el proceso de creación. Sin embargo, la mayoría de las políticas de los distritos escolares se centran erróneamente en hacer frente a las trampas o en el uso de software de detección, ignorando el problema fundamental de la autoría. Las políticas que no abordan qué constituye el trabajo original de un estudiante están destinadas a volverse obsoletas.

Para adaptarse a esta nueva era, la educación debe redefinir lo que cuenta como aprendizaje. El artículo propone cuatro cambios fundamentales: primero, cambiar el enfoque del producto final al proceso, exigiendo a los estudiantes que demuestren cómo llegaron a sus resultados; segundo, definir claramente qué se espera de la contribución humana en cada tarea; tercero, normalizar y enseñar la divulgación ética del uso de la IA, donde los alumnos declaren qué herramientas usaron y qué pensamiento es propio; y cuarto, rediseñar intencionalmente las tareas para que requieran interpretación, razonamiento y revisión. En conclusión, aunque la inteligencia artificial llegó para quedarse y generar contenido de forma instantánea, no puede reemplazar la necesidad fundamental de la autoría y el pensamiento humano en el aprendizaje.

jueves, febrero 26, 2026

La administración Trump recurre a imágenes falsas generadas por IA como estrategia políti

 


Huamani, Kaitlyn. “Trump’s Use of AI Images Sparks Alarm and Misinformation Fears.” The Independent, 27 de enero de 2026.

Donald Trump ha incorporado imágenes generadas o manipuladas con inteligencia artificial dentro de su estrategia comunicativa, incluso desde canales oficiales vinculados a la Casa Blanca. No se trata únicamente de montajes humorísticos o memes aislados, sino de piezas visuales difundidas en espacios institucionales que tradicionalmente se asociaban con información verificable. Este desplazamiento desde lo informal hacia lo oficial es uno de los elementos que más inquietud genera entre analistas y especialistas en desinformación.

Uno de los casos señalados en el reportaje es la publicación de imágenes alteradas que exageran rasgos emocionales o escenifican situaciones con una clara intencionalidad política. Aunque estas piezas puedan presentarse como sátira o ironía, los expertos advierten que su circulación desde cuentas oficiales les otorga una legitimidad que difumina la frontera entre propaganda, entretenimiento y comunicación gubernamental. El problema no radica solo en la manipulación visual, sino en el contexto institucional que amplifica su impacto.

El artículo subraya que este fenómeno contribuye a una erosión progresiva de la confianza pública. Cuando los ciudadanos perciben que incluso las fuentes oficiales emplean imágenes artificiales o engañosas, se debilita la idea de que existe un terreno común de hechos verificables. Investigadores en comunicación política señalan que la repetición de estos recursos puede normalizar la duda permanente: si todo puede estar manipulado, nada resulta plenamente creíble.

Además, el reportaje conecta esta práctica con un entorno digital más amplio en el que la inteligencia artificial facilita la producción masiva de contenidos visuales difíciles de distinguir de fotografías auténticas. En este contexto, el uso estratégico de imágenes generadas por IA no solo influye en campañas electorales o debates puntuales, sino que alimenta una cultura política donde la emoción y la viralidad pesan más que la precisión factual.

En definitiva, el texto plantea que el verdadero riesgo no es únicamente la existencia de imágenes falsas, sino la institucionalización de su uso. Cuando la comunicación oficial adopta recursos propios de la cultura meme y la manipulación digital, se intensifica la crisis de confianza en las instituciones democráticas y en los medios de comunicación, reforzando un clima de polarización y escepticismo estructural.


lunes, enero 12, 2026

Cómo pueden los autores inspirarse en las bibliotecas

 


Trimble, MeghanHow Authors Can Draw Inspiration from Libraries.” Medium (EveryLibrary), December 26, 2025. https://medium.com/everylibrary/how-authors-can-draw-inspiration-from-libraries-0064ebb74f9e

Las bibliotecas inspiran a los escritores, ofreciendo acceso gratuito a libros, recursos de investigación y un entorno creativo. Presenta ejemplos históricos y contemporáneos de autores que aprovecharon bibliotecas para desarrollar sus obras.

las bibliotecas públicas son recursos valiosos para los escritores, ofreciendo un entorno ideal para desarrollar la creatividad y avanzar en un proyecto literario. Para muchos autores en ciernes, publicar una novela es una aspiración importante, pero no siempre fácil de realizar. Las bibliotecas proveen un espacio accesible y gratuito donde pueden rodearse de libros que motivan, estudiar obras existentes y realizar investigación sin coste alguno, lo cual es especialmente útil para quienes están empezando y necesitan referencias, técnicas o información sobre agentes y editores.

El texto también recoge ejemplos de autores famosos cuya relación con las bibliotecas fue significativa en su carrera. Ray Bradbury, por ejemplo, escribió el primer borrador de Fahrenheit 451 en la biblioteca Powell de UCLA, mientras que Phillip Pullman se inspiró en la histórica Biblioteca Bodleiana de Oxford para elementos de La Belle Sauvage. Asimismo, Madeleine L’Engle continuó su producción literaria mientras colaboraba como voluntaria bibliotecaria, y la Geisel Library en la Universidad de California, San Diego, está asociada con el icónico Dr. Seuss. También se menciona a Edward Said, cuyo legado académico está preservado en una sala de la Butler Library de Columbia.

Además de los ejemplos históricos, el artículo incluye testimonios contemporáneos de escritores que atribuyen parte de su éxito a las bibliotecas. Autores como Douglas Westerbeke y Kristen Arnett señalan que las bibliotecas no solo brindan acceso a recursos, sino que también ofrecen un ambiente donde pueden trabajar tranquilamente, aprender y crecer como escritores. Las bibliotecas fomentan la comunidad, el aprendizaje continuo y la exploración individual, aspectos que muchos autores valoran profundamente en su proceso creativo.

Finalmente, el artículo anima a los aspirantes a escritores a aprovechar al máximo su biblioteca local, no solo para leer y consultar materiales, sino también para conectarse con bibliotecarios y explorar los recursos especializados y bases de datos que pueden potenciar su trayectoria hacia la publicación

Inteligencia artificial en los procesos técnicos bibliotecarios: fundamentos y aplicaciones prácticas

 


LOPEZOSA, Carlos. Inteligencia artificial en los procesos técnicos bibliotecarios: fundamentos y aplicaciones prácticas. Informe. Universitat de Barcelona, 2026. Consulta del 12 de enero de 2026. https://hdl.handle.net/2445/225202

Se analiza cómo la inteligencia artificial (IA) está transformando y puede seguir transformando los procesos técnicos dentro de las bibliotecas y centros de documentación. El estudio se centra en profundizar en los fundamentos conceptuales de la IA, sus aplicaciones principales y los desafíos que plantea su adopción responsable en contextos bibliotecarios.

El informe analiza el impacto creciente de la inteligencia artificial en las bibliotecas, centrándose especialmente en los procesos técnicos tradicionales. Parte de la idea de que la IA, y en particular los modelos de lenguaje de gran tamaño, ya forman parte del ecosistema informacional y están modificando de manera profunda la forma en que se gestionan, describen y organizan los recursos documentales. El texto ofrece una aproximación clara a los fundamentos conceptuales de la IA, explicando su funcionamiento general y su relevancia para el ámbito bibliotecario y documental.

A lo largo del trabajo se examinan las principales aplicaciones prácticas de la inteligencia artificial en tareas como la catalogación, la gestión y normalización de metadatos y el enriquecimiento semántico de los registros bibliográficos. El autor muestra cómo estas tecnologías permiten automatizar procesos repetitivos, detectar inconsistencias y mejorar la calidad descriptiva de los fondos, lo que repercute directamente en una mejor recuperación de la información. No obstante, se insiste en que la IA debe entenderse como una herramienta de apoyo y no como un sustituto del criterio profesional del personal bibliotecario.

El documento también aborda la integración de la IA en los flujos de trabajo técnicos, destacando su utilidad como sistema de asistencia avanzada para el análisis de datos, la generación de informes y la toma de decisiones técnicas. Desde esta perspectiva, la inteligencia artificial se presenta como un recurso estratégico que puede aumentar la eficiencia y liberar tiempo para tareas de mayor valor intelectual, siempre que exista una supervisión humana adecuada.

Un apartado relevante del estudio está dedicado a los retos éticos, legales y organizativos que plantea el uso de la IA en bibliotecas. Se analizan cuestiones como la protección de datos personales, la seguridad de la información y el riesgo de sesgos algorítmicos, subrayando la necesidad de una evaluación crítica y continua de estas herramientas. El texto advierte sobre los peligros de una dependencia tecnológica excesiva y reclama políticas claras que garanticen un uso responsable, transparente y alineado con los valores profesionales de la biblioteconomía.

Como conclusión, el informe propone un modelo de adopción híbrida de la inteligencia artificial, en el que la tecnología complementa el trabajo humano sin sustituirlo. Se defiende una incorporación progresiva y reflexiva de la IA en los procesos técnicos bibliotecarios, basada en la formación del personal, la supervisión ética y la adaptación a las necesidades reales de cada institución. De este modo, la IA se concibe como un instrumento para mejorar la calidad del servicio bibliotecario y reforzar su papel en la gestión del conocimiento en la era digital.

martes, diciembre 23, 2025

¿Las prohibiciones de teléfonos móviles en las escuelas ayudan a los estudiantes a rendir mejor?

 


Wharton School, Knowledge at Wharton. “Do School Cell Phone Bans Help Students Do Better?” Knowledge at Wharton, Universidad de Pensilvania, publicado en línea. https://knowledge.wharton.upenn.edu/article/do-school-cell-phone-bans-help-students-do-better/

Basado en más de 20 000 encuestas de educadores recopiladas a través del proyecto Phones in Focus, los datos iniciales muestran que las políticas más estrictas de prohibición de teléfonos en los centros educativos se asocian con menos distracciones y una mayor satisfacción docente, ya que los profesores reportan menos interrupciones a la hora de enseñar y una reducción de la atención del alumnado hacia sus dispositivos en momentos académicos.

Los encuestados, compuestos mayoritariamente por docentes de educación primaria y secundaria, señalan que las prohibiciones totales durante el horario escolar ayudan a disminuir las distracciones y a indirectamente favorecer un clima más centrado en el aprendizaje. Duckworth explica que cuando los teléfonos están completamente fuera del aula y no disponibles, los estudiantes tienden a interactuar más entre sí y a concentrarse en el trabajo escolar, lo cual mejora el ambiente general de la clase y la percepción de efectividad pedagógica.

No obstante, el artículo también matiza que los resultados son aún preliminares: los investigadores planean correlacionar las respuestas de la encuesta con medidas objetivas de rendimiento educativo, como calificaciones, asistencia, puntuaciones en pruebas estandarizadas y compromiso estudiantil a lo largo del año escolar, antes de hacer recomendaciones definitivas. La ambición del proyecto Phones in Focus es poder ofrecer orientaciones basadas en datos para que los distritos escolares ajusten sus políticas de uso de teléfonos de manera informada para el curso 2025-2026.

En el contexto global, y aunque no forma parte del artículo de Wharton, otros estudios aportan una visión más matizada: investigaciones en Europa han encontrado beneficios modestos de las prohibiciones completas de teléfonos móviles sobre el rendimiento académico, especialmente entre estudiantes con bajo rendimiento, mientras que otros trabajos sugieren que las prohibiciones por sí solas no bastan para mejorar resultados si no se integran en estrategias educativas amplias.

El uso de ChatGPT no garantiza una comprensión profunda del aprendizaje

 


Una investigación académica publicada en PNAS Nexus que pone de manifiesto los efectos del uso de modelos de lenguaje como ChatGPT en los procesos de aprendizaje.

Según el estudio, que involucró a más de 10 000 participantes en una serie de experimentos, las personas que utilizaron resúmenes generados por IA para estudiar temas específicos desarrollaron una comprensión superficial de los contenidos, produjeron menos hechos concretos y tendieron a replicar información similar a la de otros usuarios que también dependieron de herramientas automatizadas. Por contraste, quienes recurrieron a búsquedas tradicionales en la web tuvieron que interactuar más activamente con fuentes diversas, lo que favoreció una comprensión más profunda y duradera del material.

Los investigadores destacaron que los modelos de lenguaje grande (LLM) como ChatGPT son eficaces para generar respuestas fluidas rápidamente, pero este beneficio puede resultar contraproducente para el aprendizaje real si reemplaza por completo el esfuerzo que requiere recopilar y sintetizar información por cuenta propia. En los experimentos, algunos grupos de participantes vieron exactamente los mismos hechos presentados de distinto modo: un grupo a través de un único resumen de IA y otro mediante enlaces a múltiples artículos web. Los resultados mostraron que quienes usaron IA dedicaron menos tiempo a explorar las fuentes originales, se implicaron menos en el proceso y escribieron consejos para otros con menos datos y menor variedad de contenidos.

El artículo también resalta cómo una investigación complementaria con 1 500 nuevos participantes evaluó la calidad de los consejos derivados del aprendizaje con IA frente al aprendizaje tradicional: los consejos basados en IA fueron considerados menos informativos y de menor confianza, y las personas manifestaron menor disposición a seguirlos. Esto sugiere que el uso excesivo de resúmenes automatizados no solo afecta la comprensión individual, sino también la percepción de utilidad y veracidad del contenido generado por IA

Otro punto importante es la advertencia de los autores de que esta dinámica puede conducir a una “deshabilitación” de habilidades cognitivas básicas, especialmente entre estudiantes jóvenes que pueden depender cada vez más de accesos rápidos a información generada por IA. Si bien los investigadores no rechazan el uso de LLM como herramientas educativas, subrayan con fuerza que deben utilizarse como complemento y no sustituto del esfuerzo intelectual activo. Según ellos, la verdadera comprensión se construye mediante la interacción directa con múltiples fuentes, la reflexión crítica y la síntesis propia de información, algo que los resúmenes automatizados no pueden reemplazar.

Finalmente, el artículo vincula estas conclusiones con preocupaciones más amplias sobre la confianza en herramientas de IA: investigaciones previas han encontrado que chatbots populares a veces malinterpretan o distorsionan contenidos periodísticos, lo que refuerza la necesidad de que los usuarios mantengan un enfoque crítico y verifiquen activamente las respuestas que reciben

miércoles, diciembre 17, 2025

Las bibliotecas están abriendo las obras digitalizadas de dominio público para entrenar los modelos de IA

 


Libraries Open Their Archives to Train AI Chatbots With Books Spanning Centuries of Human Knowledge.” Milwaukee Independent, November 8, 2025. https://www.milwaukeeindependent.com/newswire/libraries-open-archives-train-ai-chatbots-books-spanning-centuries-human-knowledge/

Varias bibliotecas y universidades están abriendo sus archivos históricos para entrenar chatbots de inteligencia artificial con libros que abarcan siglos de conocimiento humano.

Esta iniciativa responde a la necesidad de proporcionar datos más ricos y culturalmente diversos a los modelos de IA, que tradicionalmente han aprendido sobre la base de contenido generado en internet, como publicaciones en redes sociales y Wikipedia, y que muchas veces carece de profundidad histórica o lingüística. Como parte de esta tendencia, la Universidad de Harvard liberó una colección de casi un millón de libros publicados desde el siglo XV en adelante, en más de 250 idiomas, que ahora están disponibles para investigadores y desarrolladores de IA.

El propósito de abrir estos archivos es ofrecer una alternativa de datos de entrenamiento que sea legal y menos polémica que el uso de textos con derechos de autor sin permiso, un tema que ha generado múltiples demandas contra grandes empresas tecnológicas por el uso no autorizado de obras protegidas. Expertos citados en el artículo explican que el dominio público constituye un recurso “prudente” para construir conjuntos de datos sin conflictos legales, al tiempo que aporta una riqueza de información cultural, histórica y lingüística que las fuentes digitales modernas no siempre proporcionan. Además, iniciativas como la “Institutional Books 1.0” —el conjunto de datos publicado por Harvard que contiene cientos de millones de páginas escaneadas de obras históricas— están siendo compartidas en plataformas abiertas como Hugging Face para ampliar su accesibilidad.

Este enfoque colaborativo entre bibliotecas, universidades y empresas de tecnología también está siendo respaldado financieramente por grandes actores como Microsoft y OpenAI, que han financiado proyectos de digitalización y preparación de archivos para uso en IA. La Biblioteca Pública de Boston, por ejemplo, ha puesto énfasis en que cualquier material digitalizado en el marco de estas colaboraciones debe permanecer accesible al público, contribuyendo así a la misión tradicional de las bibliotecas de servir a sus comunidades. A pesar de las ventajas, los especialistas advierten sobre posibles desafíos, como la presencia de contenido desactualizado o incluso dañino en textos antiguos, que exige decisiones informadas sobre cómo utilizar estos datos de manera responsable para entrenar sistemas de inteligencia artificial sin reproducir prejuicios históricos o errores científicos.