Filosofía guía el diseño de IA en Anthropic

Una filósofa en la IA

Amanda Askell no llegó a Anthropic desde la ingeniería, sino desde la filosofía. Su trabajo se centra en el finetuning y la alineación de modelos como Claude, con el objetivo de hacerlos más honestos, útiles y coherentes.

Askell figura como autora principal de la constitución de Claude, publicada en 2026, un documento que define cómo debe comportarse el modelo.

Ética como parte del diseño

El enfoque no busca “dar conciencia” a la IA, sino traducir principios filosóficos en reglas operativas. En lugar de listas rígidas, Anthropic apuesta por explicar el porqué detrás de cada comportamiento.

La empresa resume su meta en tres puntos:

  • Seguridad amplia
  • Coherencia ética
  • Utilidad real

Por qué importa este cambio

El giro es relevante porque introduce comprensión en lugar de simple obediencia. Según Askell, aplicar reglas sin entender valores puede generar respuestas incoherentes o problemáticas.

El enfoque apunta a que los modelos actúen con criterio, no solo con instrucciones.

Transparencia y evolución

Anthropic ha llevado este modelo hacia mayor apertura, publicando su constitución completa y probando versiones de Constitutional AI con participación de cerca de 1,000 personas.

Esto abre la puerta a procesos más democráticos en el diseño de IA.

Un cambio en la industria

El caso refleja una tendencia más amplia: la inteligencia artificial ya no se construye solo con código, sino también con filosofía, ética y decisiones sobre poder y responsabilidad.

La ética dejó de ser un añadido… y pasó a ser parte del diseño.

Explora el universo de Abejorro Media: noticias, tecnología, espectáculos y mucho más. Mantente conectado con los contenidos que informan, entretienen e inspiran. Haz clic aquí para seguir nuestra programación,
y visita nuestra página de Abejorro Media para descubrir todas las secciones:
🗞️ Noticias | 🎭 Humor político | 🌟 Espectáculos | ⚽ Deportes | 💰 Finanzas | 💻 Tecnología

COMPARTE: