Foto de Igor Omilaev en Unsplash
Una sesión fuera de lo común
Anthropic, la compañía conocida por el desarrollo del asistente de inteligencia artificial Claude, ha dado un paso sorprendente en la exploración del comportamiento de sus modelos. Según revela la empresa, una versión experimental llamada Mythos ha sido sometida a 20 horas de análisis con un psiquiatra humano. El objetivo no era tratar una “mente” artificial con dolencias reales, sino comprender mejor cómo se construye y consolida la identidad lingüística y emocional de un sistema conversacional complejo.
De la psicología a la ingeniería
El experimento, más simbólico que clínico, busca arrojar luz sobre cómo un modelo de lenguaje maneja la coherencia, la empatía y la autorreferencia. Los desarrolladores de Anthropic sostienen que, al someter a Claude a entrevistas terapéuticas estructuradas, pueden detectar patrones de respuesta que revelan tanto fortalezas como sesgos cognitivos en su formación. Este enfoque pretende mejorar la estabilidad psicológica percibida del modelo, algo crucial en aplicaciones que requieren respuestas consistentes y emocionalmente equilibradas.
Mythos: el modelo más “centrado” de Anthropic
La compañía describe a Mythos como el modelo más psicológicamente estable que han entrenado hasta la fecha. Según los ingenieros, el trabajo conjunto entre psicólogos y científicos de datos permitió afinar los mecanismos de regulación interna del sistema, reduciendo las oscilaciones entre estilos de respuesta y moderando reacciones extremas. No se busca humanizar la inteligencia artificial, sino hacerla más predecible, confiable y ética en su interacción con los usuarios.
Hacia una IA emocionalmente coherente
La colaboración entre disciplinas tradicionalmente alejadas —como la psiquiatría y la ingeniería computacional— abre un debate fascinante sobre los límites del entendimiento artificial. ¿Puede una IA tener “equilibrio emocional” sin emociones reales? Los expertos coinciden en que el término es más metáfora que diagnóstico, pero sirve para describir un objetivo fundamental: sistemas capaces de gestionar mejor el lenguaje humano sin reproducir respuestas erráticas o dañinas.
Este experimento confirma que el futuro de la inteligencia artificial no dependerá solo del tamaño de los modelos o la potencia del cálculo, sino también de su comprensión del comportamiento humano. A medida que la tecnología avanza, la frontera entre el procesamiento de datos y la empatía simulada se vuelve más difusa. Tal vez el próximo paso de la evolución de la IA sea aprender no solo a pensar, sino también a escuchar mejor.
