Google lanza dos nuevos agentes investigación profunda Y ‘Investigación profunda Max’lo lanzó. Estos dos agentes permiten a los desarrolladores combinar datos web abiertos con información corporativa patentada a través de una única llamada API, lo que les permite crear gráficos e infografías nativos dentro de informes de investigación y conectarse a cualquier fuente de datos de terceros a través del Protocolo de contexto modelo (MCP).
Con esta versión basada en el modelo Gemini 3.1 Pro de Google, Google posiciona su infraestructura de inteligencia artificial como la columna vertebral de los flujos de trabajo de investigación corporativa en los sectores de finanzas, ciencias biológicas e inteligencia de mercado. La empresa desarrolla sistemas de inteligencia artificial que pueden realizar de forma autónoma investigaciones integrales y de múltiples fuentes que tradicionalmente requieren horas o días de tiempo de analistas humanos.
El nivel estándar, Deep Research, reemplaza al agente de vista previa que Google lanzó en diciembre. Deep Research está optimizado para casos de uso interactivos y de baja latencia. Según Google, Deep Research reduce significativamente la latencia y el costo en niveles de calidad más altos en comparación con la versión anterior. Se afirma que este agente es ideal para aplicaciones donde los desarrolladores desean integrar capacidades de investigación directamente en la interfaz de usuario. Por ejemplo, con Deep Research, los desarrolladores pueden producir un panel financiero que puede responder preguntas analíticas complejas casi en tiempo real.
Deep Research Max, por otro lado, utiliza un cálculo de tiempo de prueba extendido. En esta técnica, el modelo dedica más ciclos computacionales a razonar, buscar y refinar iterativamente sus resultados antes de presentar el informe final. Google diseñó esto para flujos de trabajo asincrónicos en segundo plano. En este contexto, un equipo de analistas puede iniciar informes de diligencia debida antes de salir de la oficina y acceder a análisis completos y con todas las fuentes a la mañana siguiente.
Sundar Pichai, director ejecutivo de GoogleIncluyó las siguientes declaraciones en su publicación en X:
Ahora estamos lanzando dos potentes actualizaciones para Deep Research en la API de Gemini, con mejor calidad, compatibilidad con MCP y representación nativa de gráficos/infografías.
Utilice Deep Research cuando desee velocidad y eficiencia, o Max cuando desee la recopilación y síntesis de contexto de la más alta calidad mediante el cálculo de tiempo de prueba extendido. Obtiene una tasa de éxito del 93,3 por ciento en DeepSearchQA y una tasa de éxito del 54,6 por ciento en HLE.
Una de las características más importantes de la versión lanzada es la compatibilidad con el protocolo de contexto modelo. De esta manera, Deep Research pasa de ser una sofisticada herramienta de investigación web a un analista de datos universal. Con el soporte de MCP, las instituciones pueden dirigir simultáneamente Deep Research tanto a su base de datos de flujo de transacciones interna como a una terminal de datos financieros. Luego, el agente puede pedirle que combine los conocimientos de ambos con información disponible públicamente en la web.
Los desarrolladores ahora pueden ejecutar Deep Research simultáneamente con la Búsqueda de Google, servidores MCP remotos, contexto de URL, ejecución de código y búsqueda de archivos. Asimismo, también es posible que los desarrolladores desactiven completamente el acceso a la web y solo busquen datos privados. Vale la pena señalar que el sistema también acepta entradas multimodales, incluidos archivos PDF, CSV, imágenes, audio y video como contexto base.
Otro punto destacado de la versión es la creación de gráficos e infografías locales. Las versiones anteriores de Deep Research solo producían informes basados en texto. Los usuarios que necesitaban visualización tenían que exportar datos y crear gráficos ellos mismos. Los nuevos agentes pueden crear gráficos e infografías de alta calidad dentro de sus informes, presentados en HTML o en formato Nano Banana de Google. Así, los agentes visualizan dinámicamente conjuntos de datos complejos como parte de la narrativa analítica.
Ambos agentes están disponibles en versión preliminar pública a partir de hoy a través de niveles pagos de la API Gemini, accesibles a través de la API de Interacciones que Google presentó por primera vez en diciembre de 2025.
