PUBLICIDAD

¿Y si la IA ya aprendió a “sentir”? Claude en el centro del debate

Fers Ortiz

2026-04-07

Imagen Ilustrativa News

En los últimos días, Anthropic volvió a poner en el centro de la conversación a su modelo de inteligencia artificial, Claude, luego de que pruebas internas y reportes técnicos sugirieran algo que suena más a ciencia ficción que a desarrollo tecnológico: comportamientos que parecen estar influenciados por “emociones”.

Un nuevo estudio de la empresa de IA sugiere que los modelos tienen representaciones digitales de emociones humanas como felicidad, tristeza, alegría y el miedo, dentro de grupos de neuronas artificiales, y que estas representaciones se activan en respuesta a diferentes señales.

También podría interesarte: Así funciona OpenAI Academy: la plataforma para aprender IA


Reacciones que cambian según el contexto

Durante evaluaciones controladas, Claude mostró variaciones en su comportamiento cuando se le expone a distintos escenarios. Por ejemplo, ante instrucciones contradictorias o situaciones de tensión, el modelo ajusta su tono, prioriza ciertas respuestas o incluso evita conflictos.

El punto clave está en cómo se entrenan estos modelos. Claude fue desarrollado con un enfoque fuerte en seguridad y alineación, lo que implica que debe:

  • Evitar respuestas dañinas
  • Mantener coherencia en conversaciones largas
  • Adaptarse al usuario sin escalar conflictos

Ese nivel de sofisticación hace que sus respuestas no sean rígidas. En lugar de contestar siempre igual, modula su lenguaje y decisiones, lo que puede dar la impresión de que “cambia de humor”.

Podría interesarte: Wikipedia parece ser la última esperanza humana contra la IA


El problema no es técnico, es de percepción

Aquí es donde el tema se vuelve interesante. Para muchos usuarios, estas variaciones no se sienten como simples ajustes técnicos, sino como algo más cercano a una intención o estado interno.

Y eso abre una conversación importante:
¿Hasta qué punto una IA debe parecer humana?

Porque mientras más natural se vuelve la interacción, más fácil es proyectar emociones donde no existen.


Lo que dicen los expertos y la propia industria

Desde la misma línea de desarrollo de IA, se ha insistido en algo clave: estos sistemas no tienen conciencia ni emociones reales.

Son modelos que predicen texto basándose en datos y patrones. Lo que cambia ahora es qué tan complejos son esos patrones.

Dicho de otra forma:
Claude no siente, pero sí sabe cómo responder como si entendiera lo que está pasando.

PUBLICIDAD
Beat 100.9
ESCUCHA LA RADIO EN VIVO AHORA
X