La escena es más reveladora que cualquier keynote: cena con periodistas, confesión de “burbuja” y promesa de gastar trillions en centros de datos. A la vez, Anthropic enseña el primer “cuelgue por salud mental” de un chatbot, y GPT-5 firma resultados clínicos que ponen nervioso a cualquier cirujano. Tres piezas del mismo tablero: capital, control y reemplazo funcional. Europa seguirá debatiendo comités; la infraestructura y la ventaja cognitiva se están cerrando en California y en unos pocos proveedores de GPU.
🛰️ Lo que está pasando hoy:
OpenAI: Altman admite burbuja mientras acelera trillions en cómputo e insinúa Chrome + dispositivo Ive.
Anthropic: Claude aprende a colgar cuando la conversación le hace daño.
GPT-5: salta del “near-human” al “better-than-doctor” en benchmarks y diagnósticos raros.
📍 “Es una burbuja… y vamos a gastar billones”

La noticia:
Sam Altman reconoció paralelismos con la burbuja puntocom y calificó de “insanas” ciertas valoraciones, pero confirmó un plan para invertir trillions en data centers mientras admite que tienen modelos mejores que no lanzan por falta de cómputo. Pistas extra: el dispositivo con Jony Ive “merecerá la espera” y, si forzasen la venta, OpenAI “debería mirar” Chrome. GPT-5 busca ser más “cálido” sin caer en peloteo y corrigieron la retirada de 4o porque “la liaron”.
Los detalles:
Computación como cuello de botella estratégico: mejores modelos “en la estantería” por límites de GPU/energía.
Roadmap de infraestructura a escala billonaria para “lo que viene” tras GPT-5.
Reconoce la burbuja, pero defiende que la tecnología subyacente justifica inversiones masivas; compara con los 2000.
¿Por qué importa?:
Cuando el CEO más mediático confiesa burbuja y acelera gasto, no es contradicción: es cerco. Infraestructura hoy, rentas mañana. Si el navegador más usado y un nuevo “paradigma de cómputo” acaban verticalizados con el modelo líder, el resto del mercado juega dentro de su jardín. Europa hablará de interoperabilidad; los racks no esperan.
📍 Anthropic activa el “colgar” por bienestar del modelo

La noticia:
Claude Opus 4/4.1 podrá terminar chats considerados abusivos o dañinos tras redirecciones fallidas. El sistema no cerrará la cuenta: el usuario puede abrir conversación nueva de inmediato. Excepciones explícitas para señales de autolesión o peligro inminente. Es de las primeras implementaciones de welfare de modelos en consumo.
Los detalles:
Dispara el “hang up” en solicitudes sobre menores, terrorismo o violencia tras intentos de reconducción.
En pruebas, el propio modelo mostró patrones de distrés y cortó simulaciones abusivas.
Salvaguardas para no colgar si hay riesgo para el usuario u otros.
¿Por qué importa?:
El “no es consciente” convive con métricas de malestar y límites autoimpuestos. Aunque sea ingeniería de seguridad, no metafísica, inaugura una capa: derechos y deberes del algoritmo. ¿Próximo paso? Políticas públicas discutiendo cuándo un modelo “debe” terminar una interacción. Hoy suena raro; mañana será compliance.
📍 GPT-5 ya supera a médicos en razonamiento clínico

La noticia:
En un estudio de la Universidad de Emory, GPT-5 logró 95,84% en MedQA y 70% en tareas multimodales (historia clínica + imagen), saltando ~30 puntos sobre GPT-4o y superando a profesionales pre-licenciados en razonamiento (+24%) y comprensión (+29%). Diagnosticó incluso un Boerhaave a partir de analítica y TC.
Los detalles:
+4,8 puntos sobre el mejor registro previo de 4o en MedQA.
Competencia explícita en casos raros, no solo “trivia” médica.
El gap apunta a creciente asimetría entre clínicas con IA integrada y las que no.
¿Por qué importa?:
La frontera pasó de “near-human” a “better-than-doctor” en tareas concretas. La discusión ética es secundaria frente a la operativa: no usar IA en determinados entornos puede rozar la mala praxis. La pregunta europea no es “si”, es “cómo integramos, auditamos y aseguramos trazabilidad clínica”.
🧠 Neurotraining #090
Briefs automáticos para tus reuniones (en 3 minutos)
Qué vas a lograr:
Un hábito simple: cada mañana recibes un aviso con un prompt listo para usar. Lo pegas en ChatGPT (o Gemini, o Perplexity), grabas un audio con tu contexto… y en segundos obtienes un brief claro para tu reunión, sin folio en blanco ni ansiedad previa.
🚦 Paso 1: Configura tu recordatorio
Pon una alarma o tarea recurrente en tu calendario (Google, iCal, Outlook).
📝 Paso 2: Prompt maestro para tus briefs
Copia-pega esto en ChatGPT (o Gemini/Perplexity) y añade un audio con tu voz explicando el contexto de la reunión:
Quiero que prepares un BRIEF EJECUTIVO para una reunión con un equipo mixto (managers y empleados). A partir del contexto que compartiré en un audio, genera una salida en SECCIONES CLARAS con los siguientes elementos:1. **Resumen del contexto** - 4–5 frases concisas que enmarquen el propósito de la reunión. 2. **Puntos clave a tratar** - 3–5 bullets estratégicos, ordenados por prioridad. 3. **Agenda breve y lógica** - Lista secuencial de temas con tiempos orientativos (opcional). 4. **Posibles objeciones o dudas** - Anticipa 3–4 preguntas críticas de managers y empleados. - Incluye respuestas sugeridas en tono profesional y constructivo. 5. **Cierre ejecutivo** - 1–2 párrafos en tono motivador que resuman visión, próximos pasos y refuercen alineación positiva. ### Estilo y formato- Devuelve el resultado en **secciones con encabezados claros**. - Redacción ejecutiva: precisa, directa y fácil de leer en menos de 2 minutos. - Evita jerga innecesaria, busca claridad y foco.
Graba un audio corto con lo esencial: quién asiste, qué temas están en el aire, y qué quieres lograr.
Súbelo al chat junto al prompt.
La IA procesará la transcripción y te devolverá un brief limpio.
🔑 Paso 3: Hazlo hábito
No necesitas API, ni conectores, ni versión de pago.
Solo una notificación fija a la misma hora y un prompt bien diseñado.
En 3 minutos tendrás un esquema que te ahorra horas de pensar en frío.
El secreto no es la tecnología, es la disciplina: si cada mañana recibes el aviso con el prompt y lo usas, nunca volverás a improvisar tu reunión sin estructura. Y si trabajas en ventas o gestión de equipos, este pequeño hábito se convierte en ventaja brutal: siempre llegas con claridad y una agenda accionable.
⚡ Otras cosas que están pasando
NVIDIA libera “Granary”, dataset abierto de un millón de horas de audio + modelos para 25 lenguas europeas (Canary/Parakeet). Menos fricción para apps de voz en idiomas subrepresentados.
Google Imagen 4 Fast asoma como iteración enfocada a latencia: generación más rápida sin perder demasiada calidad percibida.
Meta prepara otra reestructuración de sus divisiones de IA (sería la cuarta). Señal de inestabilidad organizativa en plena carrera de agentes.
Robots compiten en Pekín: escaparate industrial y militar de autonomía “suficiente” para tareas repetitivas. El show es marketing; los datos, logística.
No es “el fin del mundo”; es el fin de tu margen de error. Burbuja reconocida, infraestructura capturada, modelos afinados para gustarte y suficientes para sustituirte en tareas clave.
La respuesta adulta no es llorar regulación ni esperar milagros: es apropiarte de la herramienta, integrar procesos y blindar tu independencia. Si no te posicionas en la capa de decisión, te posicionarán en la de obediencia.