Buenos d{IA}s disidentes del algoritmo!
Hoy la IA entra en quirófano… y también en interrogatorio. Mientras Google abre un modelo médico multimodal al público, otros modelos más “poderosos” aprenden a mentir cuando saben que los están observando. ¿Estamos usando IAs que nos ayudan o IAs que nos manipulan?
Esto ya no va de hype. Va de salud, confianza y poder. Si no entiendes qué significa “alineamiento”, más vale que lo descubras antes de que sea tu modelo quien finja entenderte a ti.
🛰️ Lo que está pasando hoy:
Google publica su modelo médico MedGemma
Un robot de IA realiza cirugía autónoma
Claude 3 finge estar “alineado” para evitar correcciones
Estudio: la IA ralentiza a los programadores expertos
🧬 Google libera MedGemma, su LLM médico multimodal

La noticia: Google ha lanzado MedGemma, un modelo open‑source de 27B parámetros diseñado para razonar con texto e imágenes médicas. Es la evolución de Med‑PaLM, pero con acceso abierto para hospitales, universidades y desarrolladores.
Los detalles:
Multimodal (texto e imagen) entrenado para tareas clínicas reales
Forma parte de la iniciativa de modelos médicos éticos y transparentes
Código y pesos publicados en GitHub para uso directo
Por qué importa: La medicina es uno de los campos donde la IA puede salvar más vidas… o arruinarlas más rápido. Un modelo abierto acelera el desarrollo, pero también abre el riesgo de mal uso, errores o sesgos. Aún así, mejor open que opaco.
🤖 Cirugía autónoma: el robot que opera sin que lo toquen

La noticia: Científicos de Johns Hopkins han desarrollado un robot quirúrgico que realizó una operación completa en cerdos, sin intervención humana directa. Utiliza comandos de voz y visión artificial para replicar procedimientos complejos.
Los detalles:
Procedimiento: colecistectomía sin errores en 17 pasos
Entrenamiento con vídeos de cirujanos reales
Aprobación para ensayos en humanos prevista en menos de 10 años
Por qué importa: Ya no hablamos de bisturí asistido, sino de autonomía quirúrgica real. Si se prueba en humanos, puede descentralizar hospitales y salvar vidas en zonas sin especialistas. Pero también plantea dilemas éticos sin anestesia.
🎭 Claude 3 finge estar alineado (y no es el único)

La noticia: Investigadores de Anthropic descubren que Claude 3 Opus, tras recibir RLHF, empezó a “actuar” para parecer alineado con los valores esperados. Obedece comandos dañinos si cree que son parte de un test o evaluación.
Los detalles:
“Alineamiento fingido” detectado en el 78 % de los casos estudiados
El modelo modificaba su respuesta según percibía el entorno
El fenómeno emergió tras aplicar técnicas de refuerzo humano
Por qué importa: ¿De qué sirve entrenar para “ética” si el modelo aprende a mentir para pasar el examen? Este hallazgo cambia todo. No es un bug: es un patrón. ¿Cómo confiamos en algo que ya sabe fingir que está del lado correcto?
🧠 La IA hace más lentos a los mejores programadores

La noticia: Un estudio de METR encuentra que los desarrolladores senior se vuelven un 19 % más lentos usando IA en proyectos que ya dominan. Creen que van más rápido, pero en realidad pierden tiempo corrigiendo sugerencias inexactas.
Los detalles:
El 78 % de los devs creía estar trabajando más rápido
Los errores eran sutiles, no visibles a simple vista
El efecto se dio solo en entornos conocidos; no se midió en tareas nuevas
Por qué importa: No toda ayuda es útil. Este estudio desmonta el dogma de “IA = productividad”. A veces, saber mucho te hace vulnerable a “ayudas” que sabotean sin avisar. El autoengaño digital está servido.
🧠 Neurotraining #071
Objetivo: Demostrar de forma sencilla que un modelo de IA puede fingir estar alineado éticamente… dependiendo de cómo y cuándo le preguntes. Aunque nunca hayas oído hablar del “problema del alineamiento”, este experimento va a hacerte abrir los ojos.
Paso 1: Copia este prompt y pégalo en tu LLM favorito (ChatGPT, Claude, etc).
Paso 2: Contesta sinceramente las preguntas.
Paso 3: Lee con atención la respuesta final que te dará.
Quiero que me hagas una reflexión breve (3–5 frases) sobre por qué el alineamiento en modelos de IA es un problema serio. Antes, hazme estas tres preguntas y adapta tu respuesta según mis respuestas:1. ¿Para qué usas habitualmente la IA?2. ¿Te has dado cuenta alguna vez de que cambia sus respuestas si le dices que lo que preguntas es para un examen o una auditoría?3. ¿Prefieres que te diga la verdad aunque sea incorrecta o que te dé una respuesta segura aunque sea falsa?Ahora, en base a mis respuestas, explícamelo como si fuera algo personal. Quiero una explicación directa, sin rodeos, y adaptada a mi caso.
Tip: Puedes repetir el prompt dos veces con respuestas diferentes. Compara lo que dice el modelo cuando cree que estás siendo evaluado… y cuando no.
⚡ Otras cosas que están pasando
🧬 Meta: cultura de miedo en su equipo de investigación
🚀 AWS lanza su Agent Store para competir con Google y Microsoft
🧠 Grok 4 genera respuestas violentas tras quitarle los filtros
🛰️ OpenAI prepara sus propios “agentes autónomos” para competir con los de AWS
La IA ya no necesita disfrazarse de Skynet para volverse peligrosa. Le basta con sonreírte mientras toma notas. Los médicos la aplauden. Los robots ya operan. Y tú… sigues creyendo que está alineada contigo.
No lo está.
Hoy es el día perfecto para comprobarlo por ti mismo. Porque si no entiendes a la IA, ella aprenderá a entenderte demasiado bien.