Investigación Profunda y Búsqueda Web
Cómo PlanToCode realiza búsquedas web, procesa resultados e integra hallazgos en flujos de trabajo de desarrollo.
La función de Investigación Profunda permite a PlanToCode realizar investigación inteligente impulsada por IA, recopilar información relevante e integrar los hallazgos directamente en los flujos de trabajo de desarrollo. Este sistema utiliza modelos de lenguaje grandes para generar consultas de investigación dirigidas basadas en el contexto de tu proyecto, ejecutar tareas de investigación en paralelo y sintetizar información procesable para mejorar la generación de código y las capacidades de resolución de problemas.
Pipeline de Investigación Profunda
El flujo de trabajo de dos etapas: generación de prompts y ejecución de investigación en paralelo.
Visión General de la Arquitectura
El sistema de investigación profunda opera como un flujo de trabajo de dos etapas: (1) WebSearchPromptsGeneration - la IA analiza tu tarea y contexto del proyecto para generar consultas de investigación dirigidas, y (2) WebSearchExecution - el LLM ejecuta prompts de investigación en paralelo y sintetiza los hallazgos. Cada etapa está diseñada para confiabilidad, eficiencia de costos y relevancia contextual.
Etapas del Flujo de Trabajo de Investigación
Generación de Prompts
Los prompts de investigación se generan automáticamente por IA basándose en tu descripción de tarea, contexto del proyecto y archivos incluidos. El sistema analiza la estructura de tu código base a través del árbol de directorios y contenido de archivos para formular consultas de investigación dirigidas. Se generan hasta 12 prompts de investigación enfocados por tarea.
Temas de Investigación
- • Documentación de API e investigación específica de bibliotecas
- • Resolución de errores y enfoques de depuración
- • Mejores prácticas y patrones recomendados
- • Compatibilidad de versiones y rutas de migración
- • Consideraciones de seguridad y conciencia de vulnerabilidades
Ejecución de Investigación
Los prompts de investigación son ejecutados en paralelo por modelos de lenguaje de IA. Cada prompt se procesa de forma independiente, permitiendo que el sistema recopile información sobre múltiples aspectos de tu tarea simultáneamente. Los resultados se sintetizan en hallazgos estructurados con títulos e información procesable.
Áreas de Enfoque de Investigación
- • Documentación de API y especificaciones técnicas
- • Ejemplos de código y patrones de implementación
- • Resolución de errores y enfoques de depuración
- • Mejores prácticas y patrones de implementación
- • Compatibilidad de versiones y guía de migración
Procesamiento y Síntesis de Resultados
Los hallazgos de investigación se estructuran en formato JSON con títulos y hallazgos detallados. El sistema agrega resultados de tareas de investigación paralelas, rastrea conteos de éxitos y fallos, y proporciona un resumen de los resultados de la investigación. Los resultados se almacenan en los metadatos del trabajo para fácil acceso.
Pasos de Procesamiento
- • Hallazgos clave extraídos y formateados para integración
- • Resultados organizados por tema de investigación y relevancia
- • Hallazgos consolidados a través de múltiples prompts de investigación
- • Ejecución de investigación rastreada con métricas de tiempo
- • Información procesable y recomendaciones destacadas
Detalles de Integración de API
Configuración de Investigación de IA
El sistema utiliza modelos de lenguaje de IA a través de OpenRouter para realizar investigación web inteligente. El LLM genera consultas de investigación dirigidas basadas en el contexto de tu tarea y sintetiza hallazgos de sus datos de entrenamiento y capacidades de búsqueda web. La selección y configuración del modelo se gestionan a través de la configuración de la aplicación.
// Start the web search workflow (Tauri command)
await invoke("start_web_search_workflow", {
sessionId,
taskDescription,
projectDirectory,
excludedPaths: ["node_modules", "dist"],
timeoutMs: 300000,
});Pipeline de Procesamiento de Contenido
Los hallazgos de investigación pasan por un pipeline de procesamiento estandarizado que extrae información significativa mientras preserva el formato y el contexto. El pipeline maneja varios tipos de contenido y sintetiza los hallazgos en información procesable para flujos de trabajo de desarrollo.
// WebSearchExecution response (stored in job.response)
{
"searchResults": [
{ "title": "Research Task 1", "findings": "Summary text..." }
],
"searchResultsCount": 1,
"summary": "Found 1 research findings"
}Integración con el Flujo de Trabajo de Desarrollo
Investigación Consciente del Contexto
Las solicitudes de investigación se mejoran automáticamente con el contexto de tu sesión actual. El sistema incluye el árbol de directorios de tu proyecto y el contenido de archivos seleccionados en la fase de generación de prompts, permitiendo que la IA formule consultas de investigación específicas para tu código base.
Integración de Resultados
Los hallazgos de investigación se pueden usar para informar los planes de implementación. Cuando las tareas de investigación se completan, los hallazgos se formatean como etiquetas research_finding que se pueden incorporar en tareas de planificación posteriores, asegurando que tu implementación esté guiada por las mejores prácticas actuales y documentación precisa.
Almacenamiento de Resultados
Los resultados de investigación se almacenan en los metadatos del trabajo y se pueden acceder a través del panel de detalles del trabajo. Los resultados persisten durante la duración de la sesión y se pueden referenciar al crear planes de implementación o tomar decisiones de codificación.
Configuración y Personalización
Configuración de Investigación
El comportamiento de investigación se configura a través de la selección de modelo y ajustes de tarea. Elige tu modelo de IA preferido para tareas de investigación, configura tiempos de espera y selecciona qué archivos incluir para el contexto.
Opciones Configurables
- • Directorio del proyecto y selección de archivos para contexto
- • La selección de modelo determina la calidad y el costo de la investigación
- • Máximo 12 prompts de investigación generados por tarea
- • Inicia la investigación manualmente a través del comando de flujo de trabajo
- • Incluye archivos de proyecto relevantes para mejor contexto
Configuración Específica del Proyecto
La configuración de investigación es consciente de la sesión. El sistema utiliza el directorio del proyecto de la sesión actual y los archivos incluidos para proporcionar contexto. Las rutas excluidas (como node_modules, dist) se filtran automáticamente del árbol de directorios mostrado a la IA.
Consideraciones de Costos
Uso y Costos
La investigación profunda utiliza tus créditos de IA configurados a través de OpenRouter. Cada tarea de investigación genera múltiples llamadas LLM en paralelo, por lo que los costos escalan con el número de prompts de investigación generados. El sistema rastrea el uso de tokens y los costos por trabajo para transparencia.
Consejos de Gestión de Costos
- • Uso de tokens rastreado por trabajo de investigación con desglose detallado de costos
- • Costos gestionados a través de tus créditos de suscripción de OpenRouter o PlanToCode
- • Monitorea los metadatos del trabajo para conteos de tokens y costos estimados
- • Resultados de investigación almacenados en caché por sesión para evitar consultas redundantes
Optimización de Costos
Los costos de investigación se gestionan a través de la generación inteligente de prompts - el sistema limita los prompts de investigación a un máximo de 12 por tarea. La ejecución en paralelo minimiza el tiempo de reloj. Cada trabajo rastrea el uso de tokens y los costos estimados en sus metadatos para total transparencia.
Mejores Prácticas y Ejemplos
Estrategias de Búsqueda Efectivas
Para maximizar el valor de la integración de búsqueda web, sigue estas estrategias probadas para formular consultas, interpretar resultados e integrar hallazgos en tu flujo de trabajo de desarrollo.
Formulación de Consultas
- • Incluye números de versión específicos cuando sea relevante
- • Combina nombres de bibliotecas con mensajes de error específicos
- • Usa "mejores prácticas" o "enfoque recomendado" para búsquedas de patrones
- • Incluye restricciones de plataforma o entorno
Evaluación de Resultados
- • Prioriza la documentación oficial sobre fuentes de terceros
- • Revisa las fechas de publicación para información sensible al tiempo
- • Verifica los ejemplos de código en tu entorno de desarrollo
- • Verifica soluciones cruzando múltiples fuentes
Ejemplos de Integración
Los patrones de integración comunes demuestran cómo los resultados de búsqueda web mejoran diferentes escenarios de desarrollo, desde la depuración de errores específicos hasta la implementación de nuevas funcionalidades con APIs desconocidas.
// Example: API integration research
Search query: "Next.js 14 app router middleware authentication"
Results integrated as:
- Middleware setup code with current best practices
- Authentication flow documentation links
- Common pitfalls and troubleshooting tips
- Compatible library recommendationsResolución de Problemas y Soporte
Problemas Comunes
La mayoría de los problemas de investigación provienen de la conectividad de la API LLM, créditos insuficientes o prompts demasiado amplios. El sistema proporciona mensajes de error claros y seguimiento del estado del trabajo para la resolución de problemas.
Errores de API
Verifica el estado de la API de OpenRouter y el saldo de créditos
No se Generaron Prompts de Investigación
Proporciona descripciones de tareas más específicas o incluye archivos relevantes para contexto
Disponibilidad del Modelo
Algunos modelos pueden tener restricciones regionales a través de OpenRouter
Optimización de Rendimiento
Para un rendimiento óptimo, proporciona descripciones de tareas claras y específicas. Incluye archivos de proyecto relevantes para dar a la IA mejor contexto. El sistema ejecuta prompts de investigación en paralelo para minimizar el tiempo total de ejecución.
¿Listo para usar la Investigación Profunda?
Las funciones de Investigación Profunda y Búsqueda Web están disponibles en la aplicación de escritorio PlanToCode. Descarga la versión para tu plataforma para comenzar a integrar la investigación web en tu flujo de trabajo de desarrollo.