Deep Research & Web-Suche
Wie PlanToCode Web-Suchen durchführt, Ergebnisse verarbeitet und Erkenntnisse in Entwicklungs-Workflows integriert.
Die Deep Research-Funktion ermöglicht PlanToCode, intelligente KI-gestützte Recherchen durchzuführen, relevante Informationen zu sammeln und Erkenntnisse direkt in Entwicklungs-Workflows zu integrieren. Dieses System verwendet große Sprachmodelle, um zielgerichtete Rechercheabfragen basierend auf Ihrem Projektkontext zu generieren, parallele Rechercheaufgaben auszuführen und umsetzbare Erkenntnisse zu synthetisieren, um Code-Generierung und Problemlösungsfähigkeiten zu verbessern.
Deep Research Pipeline
Der zweistufige Workflow: Prompt-Generierung und parallele Rechercheausführung.
Architekturübersicht
Das Deep-Research-System arbeitet als zweistufiger Workflow: (1) WebSearchPromptsGeneration - KI analysiert Ihre Aufgabe und den Projektkontext, um zielgerichtete Recherche-Abfragen zu generieren, und (2) WebSearchExecution - das LLM führt Recherche-Prompts parallel aus und synthetisiert Erkenntnisse. Jede Stufe ist auf Zuverlässigkeit, Kosteneffizienz und kontextuelle Relevanz ausgelegt.
Recherche-Workflow-Phasen
Prompt-Generierung
Recherche-Prompts werden automatisch von KI basierend auf Ihrer Aufgabenbeschreibung, dem Projektkontext und einbezogenen Dateien generiert. Das System analysiert Ihre Codebasis-Struktur über Verzeichnisbaum und Dateiinhalte, um zielgerichtete Rechercheabfragen zu formulieren. Bis zu 12 fokussierte Recherche-Prompts werden pro Aufgabe generiert.
Recherchethemen
- • API-Dokumentation und bibliotheksspezifische Recherche
- • Fehlerbehebung und Debugging-Ansätze
- • Best Practices und empfohlene Muster
- • Versionskompatibilität und Migrationspfade
- • Sicherheitsüberlegungen und Schwachstellenbewusstsein
Rechercheausführung
Recherche-Prompts werden parallel von KI-Sprachmodellen ausgeführt. Jeder Prompt wird unabhängig verarbeitet, sodass das System Informationen zu mehreren Aspekten Ihrer Aufgabe gleichzeitig sammeln kann. Ergebnisse werden in strukturierte Erkenntnisse mit Titeln und umsetzbaren Einsichten synthetisiert.
Recherche-Schwerpunktbereiche
- • API-Dokumentation und technische Spezifikationen
- • Code-Beispiele und Implementierungsmuster
- • Fehlerbehebung und Problemlösungsansätze
- • Best Practices und Implementierungsmuster
- • Versionskompatibilität und Migrationsleitfäden
Ergebnisverarbeitung & Synthese
Rechercheergebnisse werden im JSON-Format mit Titeln und detaillierten Erkenntnissen strukturiert. Das System aggregiert Ergebnisse aus parallelen Rechercheaufgaben, verfolgt Erfolgs- und Fehleranzahlen und bietet eine Zusammenfassung der Rechercheergebnisse. Ergebnisse werden in Job-Metadaten für einfachen Zugriff gespeichert.
Verarbeitungsschritte
- • Wichtige Erkenntnisse extrahiert und für die Integration formatiert
- • Ergebnisse nach Recherchethema und Relevanz organisiert
- • Erkenntnisse über mehrere Recherche-Prompts hinweg konsolidiert
- • Rechercheausführung mit Zeitmetriken verfolgt
- • Umsetzbare Einsichten und Empfehlungen hervorgehoben
API-Integrationsdetails
KI-Recherche-Konfiguration
Das System verwendet KI-Sprachmodelle über OpenRouter, um intelligente Web-Recherchen durchzuführen. Das LLM generiert zielgerichtete Recherche-Abfragen basierend auf Ihrem Aufgabenkontext und synthetisiert Erkenntnisse aus seinen Trainingsdaten und Web-Suchfähigkeiten. Modellauswahl und -konfiguration werden über die Anwendungseinstellungen verwaltet.
// Start the web search workflow (Tauri command)
await invoke("start_web_search_workflow", {
sessionId,
taskDescription,
projectDirectory,
excludedPaths: ["node_modules", "dist"],
timeoutMs: 300000,
});Inhaltsverarbeitungs-Pipeline
Forschungsergebnisse durchlaufen eine standardisierte Verarbeitungs-Pipeline, die aussagekräftige Informationen extrahiert und dabei Formatierung und Kontext bewahrt. Die Pipeline verarbeitet verschiedene Inhaltstypen und synthetisiert Erkenntnisse zu umsetzbaren Einsichten für Entwicklungs-Workflows.
// WebSearchExecution response (stored in job.response)
{
"searchResults": [
{ "title": "Research Task 1", "findings": "Summary text..." }
],
"searchResultsCount": 1,
"summary": "Found 1 research findings"
}Integration in Entwicklungs-Workflows
Kontextbewusste Recherche
Rechercheanfragen werden automatisch mit Kontext aus Ihrer aktuellen Sitzung erweitert. Das System bezieht den Verzeichnisbaum und ausgewählte Dateiinhalte Ihres Projekts in die Prompt-Generierungsphase ein, sodass die KI Rechercheabfragen formulieren kann, die spezifisch für Ihre Codebasis sind.
Ergebnisintegration
Rechercheergebnisse können zur Information von Implementierungsplänen verwendet werden. Wenn Rechercheaufgaben abgeschlossen sind, werden Erkenntnisse als research_finding-Tags formatiert, die in nachfolgende Planungsaufgaben einbezogen werden können, um sicherzustellen, dass Ihre Implementierung von aktuellen Best Practices und genauer Dokumentation geleitet wird.
Ergebnisspeicherung
Rechercheergebnisse werden in Job-Metadaten gespeichert und können über das Job-Details-Panel abgerufen werden. Ergebnisse bleiben für die Dauer der Sitzung bestehen und können bei der Erstellung von Implementierungsplänen oder Codierungsentscheidungen referenziert werden.
Konfiguration und Anpassung
Rechercheeinstellungen
Das Rechercheverhalten wird durch Modellauswahl und Aufgabeneinstellungen konfiguriert. Wählen Sie Ihr bevorzugtes KI-Modell für Rechercheaufgaben, konfigurieren Sie Timeouts und wählen Sie, welche Dateien für den Kontext einbezogen werden sollen.
Konfigurierbare Optionen
- • Projektverzeichnis- und Dateiauswahl für Kontext
- • Modellauswahl bestimmt Recherchequalität und Kosten
- • Maximal 12 Recherche-Prompts pro Aufgabe generiert
- • Recherche manuell über den Workflow-Befehl starten
- • Relevante Projektdateien für besseren Kontext einbeziehen
Projektspezifische Einstellungen
Die Recherchekonfiguration ist sitzungsbewusst. Das System verwendet das Projektverzeichnis und die einbezogenen Dateien der aktuellen Sitzung, um Kontext bereitzustellen. Ausgeschlossene Pfade (wie node_modules, dist) werden automatisch aus dem dem KI gezeigten Verzeichnisbaum gefiltert.
Kostenüberlegungen
Nutzung und Kosten
Deep Research verwendet Ihre konfigurierten KI-Credits über OpenRouter. Jede Rechercheaufgabe generiert mehrere parallele LLM-Aufrufe, daher skalieren die Kosten mit der Anzahl der generierten Recherche-Prompts. Das System verfolgt Token-Nutzung und Kosten pro Job für Transparenz.
Tipps zur Kostenverwaltung
- • Token-Nutzung pro Recherche-Job mit detaillierter Kostenaufschlüsselung verfolgt
- • Kosten über Ihre OpenRouter- oder PlanToCode-Abonnement-Credits verwaltet
- • Job-Metadaten auf Token-Anzahl und geschätzte Kosten überwachen
- • Rechercheergebnisse pro Sitzung zwischengespeichert, um redundante Abfragen zu vermeiden
Kostenoptimierung
Recherchekosten werden durch intelligente Prompt-Generierung verwaltet - das System begrenzt Recherche-Prompts auf maximal 12 pro Aufgabe. Parallele Ausführung minimiert die Gesamtzeit. Jeder Job verfolgt Token-Nutzung und geschätzte Kosten in seinen Metadaten für volle Transparenz.
Best Practices und Beispiele
Effektive Suchstrategien
Um den Wert der Web-Such-Integration zu maximieren, befolgen Sie diese bewährten Strategien zur Formulierung von Abfragen, Interpretation von Ergebnissen und Integration von Erkenntnissen in Ihren Entwicklungs-Workflow.
Abfrageformulierung
- • Spezifische Versionsnummern einbeziehen, wenn relevant
- • Bibliotheksnamen mit spezifischen Fehlermeldungen kombinieren
- • "Best Practices" oder "empfohlener Ansatz" für Mustersuchen verwenden
- • Plattform- oder Umgebungsbeschränkungen einbeziehen
Ergebnisbewertung
- • Offizielle Dokumentation gegenüber Drittanbieterquellen priorisieren
- • Veröffentlichungsdaten für zeitkritische Informationen prüfen
- • Code-Beispiele in Ihrer Entwicklungsumgebung verifizieren
- • Lösungen aus mehreren Quellen gegenprüfen
Integrationsbeispiele
Gängige Integrationsmuster zeigen, wie Web-Suchergebnisse verschiedene Entwicklungsszenarien verbessern, von der Fehlersuche bei spezifischen Fehlern bis zur Implementierung neuer Funktionen mit unbekannten APIs.
// Example: API integration research
Search query: "Next.js 14 app router middleware authentication"
Results integrated as:
- Middleware setup code with current best practices
- Authentication flow documentation links
- Common pitfalls and troubleshooting tips
- Compatible library recommendationsFehlerbehebung und Support
Häufige Probleme
Die meisten Rechercheprobleme stammen von LLM-API-Konnektivität, unzureichenden Credits oder zu breiten Prompts. Das System bietet klare Fehlermeldungen und Job-Status-Verfolgung zur Fehlerbehebung.
API-Fehler
OpenRouter-API-Status und Credit-Guthaben prüfen
Keine Recherche-Prompts generiert
Spezifischere Aufgabenbeschreibungen bereitstellen oder relevante Dateien für Kontext einbeziehen
Modellverfügbarkeit
Einige Modelle können regionale Einschränkungen über OpenRouter haben
Leistungsoptimierung
Für optimale Leistung geben Sie klare und spezifische Aufgabenbeschreibungen an. Beziehen Sie relevante Projektdateien ein, um der KI besseren Kontext zu geben. Das System führt Recherche-Prompts parallel aus, um die Gesamtausführungszeit zu minimieren.
Bereit, Deep Research zu nutzen?
Die Deep Research- und Web-Such-Funktionen sind in der PlanToCode-Desktop-Anwendung verfügbar. Laden Sie den Build für Ihre Plattform herunter, um Web-Recherche in Ihren Entwicklungs-Workflow zu integrieren.