Puede que el 16 de abril de 2025 sea recordado como el día en que dejamos de entrenar modelos… y empezamos a dejarles pensar por su cuenta.
¿Exageración? Tal vez. ¿Advertencia? Seguro.

🗞 Noticias que no debes perderte
OpenAI lanza o3 y o4-mini: modelos que piensan con imágenes

OpenAI presenta sus nuevos modelos de razonamiento o3 y o4-mini. Ambos integran acceso total a herramientas (web, Python, imágenes) y son capaces de manipular información visual como parte activa del pensamiento. Según Greg Brockman, es “un paso cualitativo al nivel de GPT-4”. Además, lanzan Codex CLI, un agente open-source para programar desde terminal.
📍 ¿Por qué importa? Marca el inicio de modelos que combinan lenguaje, visión y herramientas con capacidad para generar ideas científicas.
💥 Nivel de disrupción: Alto
🧠 Complejidad técnica: Avanzado
⚙️ Usabilidad directa: Depende del contexto
🔗 Enlace: https://openai.com
Microsoft Copilot ahora usa el ordenador como tú

Copilot Studio estrena “Computer Use”: la IA ya no solo sugiere, ahora hace clic, escribe y navega por GUIs como un usuario humano. Sin necesidad de APIs, los agentes pueden operar cualquier app de escritorio o web. Microsoft lo vende como la integración definitiva para flujos empresariales.
📍 ¿Por qué importa? Automatizar tareas sin APIs rompe una barrera histórica: ahora cualquier software es “compatible” con IA.
💥 Nivel de disrupción: Alto
🧠 Complejidad técnica: Intermedio
⚙️ Usabilidad directa: Alta
🔗 Enlace: https://microsoft.com
Claude 3 se convierte en investigador autónomo

Anthropic da el siguiente paso: Claude ahora busca, lee y responde con citas desde internet o tus archivos de Google Workspace. En modo “Research”, puede actuar sin instrucciones detalladas, interpretando contexto y explorando por su cuenta. Disponible para usuarios de pago en EE.UU., Japón y Brasil.
📍 ¿Por qué importa? El modelo ya no responde: decide qué necesita saber y lo busca solo.
💥 Nivel de disrupción: Medio
🧠 Complejidad técnica: Avanzado
⚙️ Usabilidad directa: Baja
🔗 Enlace: https://claude.ai
🧪 Lab Session
¿Quieres ejecutar una IA multimodal en tu propio equipo, sin nube ni pagos?
Sigue estos pasos:
Instálalo en Mac, Windows o Linux.
Carga un modelo local (elige según la RAM: 7B si vas justo, 12-14B si tu equipo lo aguanta).
Usa comandos o interfaz para chatear offline.
¿Qué podrías automatizar tú con esto ahora mismo?
⚡ Otras cosas que están pasando
🧠 Google lanza Veo 2, su modelo de vídeo SOTA, en Gemini App
🎨 Tencent presenta FireEdit, editor de imagen por instrucciones
🛠️ Codex CLI permite codificar desde terminal con razonamiento
📈 OpenAI quiere comprar Windsurf (ex-Codeium) por $3B
🎙️ Claude prepara su “voice mode” con 3 voces distintas
Esto ya no va de prompts. Va de agentes que combinan visión, código y decisión.
Y si tú aún sigues escribiendo, cuidado: puede que tu próximo reemplazo… ya esté razonando solo.