Buenos días, disidentes del algoritmo.
Ilya Sutskever, el cerebro que entrenó a ChatGPT, acaba de confirmar lo que muchos temían en privado: la fiesta de inflar modelos a base de GPUs y datos ha terminado.
Mientras Silicon Valley digiere el fin de la era del scaling, la competencia se vuelve asimétrica: DeepSeek humilla a los modelos cerrados con matemáticas open source y Jeff Bezos baja del espacio para dirigir personalmente una startup de IA industrial.
La lección es clara: el tamaño ya no es ventaja competitiva; ahora gana quien tiene las mejores ideas, no el servidor más grande.
🎯 Lo que está pasando hoy:
Ilya Sutskever rompe el silencio: la era del scaling murió, empieza la de la investigación profunda.
DeepSeek lanza Math-V2: oro en la IMO 2025 y Putnam, todo open source y verificable.
Jeff Bezos vuelve como CEO en una startup de IA con $6.200M listos para pelear.
AI Training: Crea infografías y diagramas en segundos con las nuevas funciones de Napkin AI.

Ilya Sutskever, cofundador de OpenAI y uno de los padres del enfoque “meto más datos y más cómputo hasta que esto funcione”, ahora dice que esa fiesta se acabó. Lo que definió la IA de 2020 a 2025 —hacer modelos cada vez más grandes sin cambiar demasiado las ideas— ya no da el salto que hace falta. A partir de aquí, o hay investigación de verdad o solo veremos versiones ligeramente maquilladas de lo mismo.
Los detalles
Sutskever pone fechas: cree que la IA con capacidad de aprendizaje claramente por encima de la humana llegará en 5–20 años, pero solo si se replantea cómo se diseñan estos sistemas y se les enseña a respetar cualquier forma de vida consciente.
Avisa de que los próximos sistemas serán mucho más autónomos e impredecibles que los modelos‑chat actuales, así que “alinearlos” ya no será ponerles cuatro reglas morales encima, sino trabajar su arquitectura desde el inicio.
Su nueva empresa, Safe Superintelligence Inc., nace con una obsesión muy concreta: construir superinteligencia, sí, pero con un equipo pequeño y centrado en investigación pura, sin el ruido de lanzar productos cada tres meses.
Por qué importa
Que el mismo tipo que se hizo rico defendiendo las “scaling laws” salga ahora a decir que inflar modelos ya no basta es un cambio de régimen. Traducido para humanos ocupados: las próximas ventajas no se compran solo con GPUs, se ganan con cerebros. Y eso abre un hueco para labs más pequeños, para nuevas tesis y para cualquiera que entienda que la seguridad no es un departamento, es parte del diseño.
Effortless Tutorial Video Creation with Guidde
Transform your team’s static training materials into dynamic, engaging video guides with Guidde.
Here’s what you’ll love about Guidde:
1️⃣ Easy to Create: Turn PDFs or manuals into stunning video tutorials with a single click.
2️⃣ Easy to Update: Update video content in seconds to keep your training materials relevant.
3️⃣ Easy to Localize: Generate multilingual guides to ensure accessibility for global teams.
Empower your teammates with interactive learning.
And the best part? The browser extension is 100% free.

Olvídate de la narrativa de que China solo copia: DeepSeek acaba de soltar V3.2 y V3.2-Speciale, dos modelos que no solo miran a los ojos a la élite americana (GPT-5, Gemini 3 Pro), sino que les ganan en su propio juego de benchmarks y, lo más doloroso, en precio. Mientras OpenAI cobra premium, DeepSeek te da rendimiento "frontier" por $0,28 el millón de tokens.
Los detalles
Rendimiento de élite: V3.2-Speciale iguala o supera a GPT-5 y Gemini 3 Pro en razonamiento puro, llevándose el oro en las Olimpiadas Internacionales de Matemáticas (IMO) 2025 y entrando en el top 10 mundial.
Precio que duele: $0,28 input / $0,42 output por millón de tokens. Compáralo con los ~$1,25 de GPT-5.1 o los $2 de Gemini 3 Pro. Es una diferencia de orden de magnitud que hace inviable ignorarlos para cualquier CFO.
Open Source real: Licencia MIT, pesos disponibles en Hugging Face. Te lo bajas, lo corres en tu infra y nadie te apaga el interruptor.
La competencia local: Mientras Kimi AI intenta posicionarse con agentes más autónomos (K2 Thinking), DeepSeek apuesta por razonamiento puro y eficiencia bruta, consolidándose como la punta de lanza del "bloque open source" frente al "bloque cerrado" de US.
Por qué importa
Esto ya no es una curiosidad técnica, es un problema geopolítico y de negocio. Si puedes tener un modelo nivel GPT-5 por una décima parte del coste y sin candados corporativos, la propuesta de valor de OpenAI y Google se empieza a erosionar. Para los desarrolladores, la decisión es financiera; para Washington, es la confirmación de que las sanciones de chips no han frenado la capacidad de China para producir software de primera clase.

Jeff Bezos podría estar jugando a conquistar Marte o a comprar islas, pero ha elegido una opción más interesante: volver como co‑CEO de Project Prometheus, una startup de IA que quiere meter algoritmos en lo más aburrido —y rentable— del mundo: cómo se diseñan y fabrican cosas físicas a gran escala. La empresa nace con un cheque de unos $6.200M, parte salido de su propio bolsillo.
Los detalles
Prometheus se centra en aplicar IA al diseño y la producción en sectores como chips, aeroespacial o automoción: menos powerpoints de “IA para todo”, más optimizar piezas, procesos y fábricas concretas.
Bezos compara la ola actual con la biotech de los 90: una burbuja en la que muchas apuestas caerán, pero las que acierten redefinirán industrias enteras, igual que la biología molecular cambió la medicina.
La compañía ha ido comprando en silencio startups de “agentic computing”, lo que apunta a un stack de agentes que piensan, simulan y deciden dentro de la cadena de suministro, no solo en una app mona de escritorio.
Por qué importa
Cuando alguien con el historial de Amazon y AWS decide volver al barro como CEO, no es por nostalgia. Bezos está apostando a que la próxima gran capa de valor no será “otra app de productividad”, sino la IA que decide cómo se diseña, se fabrica y se mueve el mundo físico. Si acierta, Prometheus no será “otra empresa de IA”: será el sistema operativo de las próximas fábricas.
🧠 AI Training
Crea infografías y diagramas profesionales en segundos con Napkin AI (nuevas funciones 2025)
Napkin AI es la típica herramienta que debería haber existido hace diez años: pegas texto y te devuelve un visual que no da vergüenza ajena. Diagramas, infografías, mapas mentales, timelines…
Las últimas actualizaciones han mejorado la velocidad, afinado las etiquetas y hecho que los iconos y layouts parezcan diseñados por alguien que cobra por ello. Objetivo para hoy: pasar de párrafo ladrillo a gráfico claro en menos de dos minutos.
Paso a paso
Entra en Napkin.ai y crea cuenta
Con el plan gratuito tienes varios visuales al mes y acceso al editor completo. No necesitas más para empezar a sacarle jugo.
Pega tu texto bruto
Puede ser un listado de puntos, el resumen de una reunión o la descripción de un proceso. Napkin detecta estructuras: pasos, ramas, comparaciones, bloques jerárquicos.
Elige el tipo de visual
Pulsa “Generate” y revisa las propuestas: flowchart, infographic, mindmap, comparación… Si quieres algo concreto, indícalo: “hazme un diagrama de flujo” o “pásalo a timeline”.
Ajusta sin sufrir
Cambia colores a tu paleta, selecciona un estilo de iconos más sobrio o más cañero, mueve bloques y deja que el auto‑layout se encargue del orden. Si trabajas en equipo, invita a otros a editar en tiempo real.
Exporta donde importa
Descarga en PNG o SVG para meterlo en un deck, súbelo a Notion, o comparte el link de Napkin tal cual si quieres feedback rápido.
Casos de uso claros
Preparar la slide clave de una presentación sin perder una hora en Figma.
Explicar a tu equipo un proceso complejo (embudos, flujos de cliente, arquitectura) con algo que se entienda en tres segundos.
Montar en un rato libre un “one‑pager” visual de una idea para probarla con clientes o socios.
Si al terminar sigues con un muro de texto y ninguna figura clara, el problema ya no es la herramienta: es que todavía no has decidido qué quieres que entienda la otra persona. Vuelve al texto, simplifica, y deja que Napkin haga el resto.
🧰 AI Stack
Herramientas top de imagen y video que deberías conocer hoy:
🌱 Seedream 4.5 - Mejoras en el modelo de imagen y edicion de ByteDance
🎥 Kling 2.6 - Nuevo modelo de video de Kling. Ahora con audio nativo.
📽️ Runway Gen-4.5 - Nuevo modelo de los veteranos en Runway
⚡ Otras cosas que están pasando
Black Forest Labs levanta $300M a $3,25B tras FLUX.2: más resolución, mejor tipografía y una señal clara de que la guerra de imagen genera dinero de verdad.
OpenAI admite incidente de seguridad en Mixpanel: datos de perfil expuestos; no se filtraron chats ni claves, pero el mensaje es obvio: ni los “guardianes de la IA” son blindados.
NVIDIA invierte $2B en Synopsys: IA para diseñar los chips que ejecutan IA. Efecto espejo: automatizar la propia base del poder de cómputo.
Telegram lanza Cocoon: red descentralizada donde prestas tu GPU a cambio de tokens; la computación distribuida vuelve con piel de web3, esta vez al servicio de modelos.
Anthropic añade memoria persistente y mejora su asistente de email: Claude empieza a parecerse menos a un chatbot y más a un colega que recuerda lo que le contaste hace semanas.
La era de inflar modelos a golpe de talonario se ha dado de bruces con su techo. Sutskever lo admite, DeepSeek demuestra que el talento fuera de Silicon Valley puede igualar —o superar— la frontera, y Bezos apuesta su tiempo y su dinero a que la IA buena es la que toca acero, fábricas y resultados.
El mensaje es claro: deja de medir quién tiene el modelo más grande y empieza a fijarte en quién está construyendo sistemas que piensan mejor y dan poder real al usuario.
Comparte esta edición con alguien que aún cree que todo va de “más parámetros” y suscríbete si quieres seguir el juego donde de verdad se decide el futuro: en el mix explosivo de investigación profunda, código abierto y capital impaciente.


