Puede que el 16 de abril de 2025 sea recordado como el día en que dejamos de entrenar modelos… y empezamos a dejarles pensar por su cuenta.

¿Exageración? Tal vez. ¿Advertencia? Seguro.

🗞 Noticias que no debes perderte

OpenAI lanza o3 y o4-mini: modelos que piensan con imágenes

OpenAI presenta sus nuevos modelos de razonamiento o3 y o4-mini. Ambos integran acceso total a herramientas (web, Python, imágenes) y son capaces de manipular información visual como parte activa del pensamiento. Según Greg Brockman, es “un paso cualitativo al nivel de GPT-4”. Además, lanzan Codex CLI, un agente open-source para programar desde terminal.

📍 ¿Por qué importa? Marca el inicio de modelos que combinan lenguaje, visión y herramientas con capacidad para generar ideas científicas.

💥 Nivel de disrupción: Alto

🧠 Complejidad técnica: Avanzado

⚙️ Usabilidad directa: Depende del contexto

🔗 Enlace: https://openai.com

Microsoft Copilot ahora usa el ordenador como tú

Copilot Studio estrena “Computer Use”: la IA ya no solo sugiere, ahora hace clic, escribe y navega por GUIs como un usuario humano. Sin necesidad de APIs, los agentes pueden operar cualquier app de escritorio o web. Microsoft lo vende como la integración definitiva para flujos empresariales.

📍 ¿Por qué importa? Automatizar tareas sin APIs rompe una barrera histórica: ahora cualquier software es “compatible” con IA.

💥 Nivel de disrupción: Alto

🧠 Complejidad técnica: Intermedio

⚙️ Usabilidad directa: Alta

🔗 Enlace: https://microsoft.com

Claude 3 se convierte en investigador autónomo

Anthropic da el siguiente paso: Claude ahora busca, lee y responde con citas desde internet o tus archivos de Google Workspace. En modo “Research”, puede actuar sin instrucciones detalladas, interpretando contexto y explorando por su cuenta. Disponible para usuarios de pago en EE.UU., Japón y Brasil.

📍 ¿Por qué importa? El modelo ya no responde: decide qué necesita saber y lo busca solo.

💥 Nivel de disrupción: Medio

🧠 Complejidad técnica: Avanzado

⚙️ Usabilidad directa: Baja

🔗 Enlace: https://claude.ai

🧪 Lab Session

¿Quieres ejecutar una IA multimodal en tu propio equipo, sin nube ni pagos?

Sigue estos pasos:

  • Descarga Ollama (CLI) o LM Studio (GUI).

  • Instálalo en Mac, Windows o Linux.

  • Carga un modelo local (elige según la RAM: 7B si vas justo, 12-14B si tu equipo lo aguanta).

  • Usa comandos o interfaz para chatear offline.

¿Qué podrías automatizar tú con esto ahora mismo?

⚡ Otras cosas que están pasando

🧠 Google lanza Veo 2, su modelo de vídeo SOTA, en Gemini App

🎨 Tencent presenta FireEdit, editor de imagen por instrucciones

🛠️ Codex CLI permite codificar desde terminal con razonamiento

📈 OpenAI quiere comprar Windsurf (ex-Codeium) por $3B

🎙️ Claude prepara su “voice mode” con 3 voces distintas

Esto ya no va de prompts. Va de agentes que combinan visión, código y decisión.

Y si tú aún sigues escribiendo, cuidado: puede que tu próximo reemplazo… ya esté razonando solo.

Keep Reading

No posts found