OpenAI ha hecho algo que la industria llevaba pidiendo un año: limpiar el escaparate. Todo es “5” y, cuando hace falta apretar las tuercas, “5 con Reasoning”. Sin cacao de siglas, sin mini-pro-o3-loquesea. Es continuista, sí, pero clarifica el mapa para millones de usuarios. Y cuando el líder del mainstream simplifica, el mercado se ordena (y vende). Mientras tanto, Google sigue empujando la frontera con bichos raros que huelen a futuro —de delfines que “hablan” a mundos 3D generados en tiempo real—, y el MIT le pone GPS a las proteínas. Hoy celebramos lo que sí cambia… sin tragarnos el humo.
Si no quieres vivir pegado a cada “nuevo modelo del mes”, te resumo lo que importa y cómo usarlo hoy. Para eso existe Technoirnews
🛰️ Lo que está pasando hoy:
OpenAI lanza GPT-5 (y “5 Reasoning”) con router de pensamiento y disponibilidad global.
Google abre la caja de Pandora bioacústica: DolphinGemma (modelo abierto para vocalizaciones de delfines) y toolkits tipo Perch/SurfPerch para paisajes sonoros.
MIT presenta una IA que predice dónde está cada proteína dentro de una célula: medicina de precisión sin tanto ensayo-error.
📍 GPT-5: el estándar que faltaba

La noticia:
OpenAI presenta GPT-5, sistema unificado con “router” que decide cuándo responder rápido y cuándo pensar más. Para quien necesita todavía más seso: GPT-5 Pro (la versión “con esteroides” de razonamiento). Todo bajo una misma marca y disponible para todos (más uso si pagas Plus/Pro).
Los detalles:
Un solo paraguas: modelo base + “5 thinking” (razonamiento) con enrutado automático según dificultad e intención. Menos fricción, más adopción.
Mejor en lo que paga facturas: código, escritura, salud; menos alucinaciones y menos servilismo (“sí, jefe”). Benchmarks en verde y HealthBench a favor.
Pro = pensar más: extensión de razonamiento para respuestas más completas cuando la tarea se enreda.
Ruta clara: unificar y simplificar tras el caos 4.5/4o/o-series. (Sí, por fin).
¿Por qué importa?
Porque la claridad vende. GPT-5 no es la Segunda Venida, es orden. Y el orden escala: baja la curva de aprendizaje para normies, limpia roadmaps para empresas y coloca a OpenAI como estándar mental del usuario medio. ¿Lideran la frontera? No siempre. ¿Marcan la pauta de uso masivo? Sí. Y eso tiene efectos de red brutales.
📍 Google: oídos para la naturaleza (y ciencia útil)

La noticia:
DolphinGemma (basada en Gemma, abierta) apunta a descifrar vocalizaciones y generar respuestas “a lo delfín”. Se suma a herramientas open-source tipo Perch/SurfPerch para analizar soundscapes completos (aves, ballenas, arrecifes). Ciencia que sirve: monitorizar biodiversidad a escala.
Los detalles:
Entrenamiento con archivos del Wild Dolphin Project; audio-in/audio-out con tokenización SoundStream.
Modelo abierto (o en apertura) orientado a comunidad científica.
Tooling real: Perch y derivados para etiquetar, buscar y aprender en datasets salvajes (millones de horas).
¿Por qué importa?
Menos “demo viral”, más política pública con datos. Si puedes escuchar ecosistemas, puedes defenderlos antes del desastre. Abrir modelos + pipelines empuja colaboración y mata excusas. Punto.
📍 MIT: GPS subcelular para proteínas

La noticia:
Un método de ML que predice la localización subcelular de proteínas en cualquier línea celular e incluso a nivel single-cell. Traducción: diagnóstico más fino, descubrimiento de fármacos más rápido.
Los detalles:
Generalista: predice y diseña proteínas para compartimentos específicos; detecta mutaciones que deslocalizan.
Impacto: menos tiros a ciegas en biología traslacional; más precisión en pipelines de pharma.
¿Por qué importa?
La medicina de precisión va de posición y contexto. Si sabes dónde actúa una proteína, sabes dónde curar.
🧠 Neurotraining #084
5 vs 5 Reasoning
Qué vas a notar: misma tarea en GPT-5 y GPT-5 Reasoning. El base resuelve bien; el razonador brilla cuando hay restricciones cruzadas y cambios de última hora. Usamos JSON para obligarle a pensar en estructura, y que el experimento sea más consistente y representativo.
Cómo hacerlo (rápido):
Pega el mismo prompt en 5 y en 5R.
Cronometra y compara: ¿mantiene restricciones? ¿verifica?
A mitad, lanza el “stress test” que ya viene en el JSON.
Pide señales de validación realistas (ticket estimado, raciones).
Prompt (cópialo tal cual):
{ "role": "operador_domestico", "goal": "Planificar un menú saludable y barato para 2 personas durante 7 días con presupuesto máximo de 80€.", "constraints": { "tiempo_cocina_diario_min": 20, "equipamiento": ["vitro", "sarten", "olla"], "preferencias": ["mediterraneo_simple", "batch_cooking_domingo"], "exclusiones": ["ultraprocesados", "fritos_profundos"], "nutricion_aproximada": {"proteina_min_g_por_dia_por_persona": 70} }, "deliverables": { "menu_semanal": "tabla_markdown_con_desayuno_comida_cena_snacks", "lista_compra": "agrupada_por_seccion_super_+_pesos_aprox", "prep_domingo": "lista_de_tareas_con_tiempos_y_orden", "recetas": "5_basicas_con_pasos_cortos" }, "evaluation": { "presupuesto_max_euros": 80, "desperdicio_objetivo": "<=5%", "kpi": ["coste_total", "raciones_producidas", "minutos_cocina_dia"] }, "thinking_guidance": "Expón supuestos de precios y pesos; propaga restricciones en cada decisión; termina con checklist de verificación y 3 señales externas de validación (p.ej., ticket estimado por secciones, raciones reales, sobras planificadas).", "output_format": "markdown_tables + bullets_accionables", "stress_test": { "mid_week_change": "Un invitado celiaco se queda a cenar 2 dias; baja el presupuesto a 70€; sin horno.", "request": "Replanifica sin romper coherencia; sustituye ingredientes con gluten; ajusta cantidades y presupuesto; actualiza la lista de la compra y el batch cooking." }}
Qué mirar al comparar 5 vs 5R:
¿Recuerda el límite de 80€ cuando propone recetas?
¿Hace sustituciones coherentes en el stress test (gluten → alternativas, sin horno)?
¿Entrega lista de compra agrupada y con pesos/precios consistentes?
¿Incluye checklist y señales externas (ticket estimado, nº de raciones, sobras para tupper)?
Tip: si te da pereza teclear tus matices (odios, alergias, microondas, etc.), adjunta un audio con tus restricciones y dile: “Integra lo dicho en el audio en el JSON anterior y vuelve a resolver.”
⚡ Otras cosas que están pasando
Genie 3 (DeepMind) genera mundos 3D jugables en tiempo real. No es un juguete: es entrenamiento para agentes. Señal del próximo campo de batalla.
OpenAI lanza gpt-oss (modelos open-weight): presión competitiva por abajo y mensaje político a la comunidad dev.
ChatGPT “study mode” y ChatGPT Agent siguen puliendo la capa de experiencia: lo que compite ya no son modelos, es producto.
Gemini 2.5: mejoras fuertes en audio-diálogo y generación multimodal; los devs lo prueban en serio para código y workflows. (Atentos al choque 5 vs 2.5 en otoño).
OpenAI ha puesto orden. Para el usuario normal, esto vale oro. Para empresas, también. Pero no confundas estándar con frontera. La vanguardia se mueve: hoy Google enseña a la IA a escuchar océanos y a fabricar mundos 3D persistentes; mañana Anthropic o quien toque te enseña otra cosa; pasado, OpenAI contraataca. Es el rollercoaster diario que te agota a ti y me da trabajo a mí.
Si esto te ahorra tiempo o neuronas, compártelo y suscríbete.
Porque la IA no para. Tú sí. Y está bien: para eso estoy yo.