Zurück zur Dokumentation
Technische Referenz

Deep Research & Web-Suche

Wie PlanToCode Web-Suchen durchführt, Ergebnisse verarbeitet und Erkenntnisse in Entwicklungs-Workflows integriert.

8 Min. Lesezeit

Die Deep Research-Funktion ermöglicht PlanToCode, intelligente KI-gestützte Recherchen durchzuführen, relevante Informationen zu sammeln und Erkenntnisse direkt in Entwicklungs-Workflows zu integrieren. Dieses System verwendet große Sprachmodelle, um zielgerichtete Rechercheabfragen basierend auf Ihrem Projektkontext zu generieren, parallele Rechercheaufgaben auszuführen und umsetzbare Erkenntnisse zu synthetisieren, um Code-Generierung und Problemlösungsfähigkeiten zu verbessern.

Deep Research Pipeline

Der zweistufige Workflow: Prompt-Generierung und parallele Rechercheausführung.

Deep Research Pipeline-Diagramm mit Prompt-Generierung und Ausführungsphasen
Click to expand
Deep Research Workflow mit Prompt-Generierung und parallelen Ausführungsphasen

Architekturübersicht

Das Deep-Research-System arbeitet als zweistufiger Workflow: (1) WebSearchPromptsGeneration - KI analysiert Ihre Aufgabe und den Projektkontext, um zielgerichtete Recherche-Abfragen zu generieren, und (2) WebSearchExecution - das LLM führt Recherche-Prompts parallel aus und synthetisiert Erkenntnisse. Jede Stufe ist auf Zuverlässigkeit, Kosteneffizienz und kontextuelle Relevanz ausgelegt.

Recherche-Workflow-Phasen

Prompt-Generierung

Recherche-Prompts werden automatisch von KI basierend auf Ihrer Aufgabenbeschreibung, dem Projektkontext und einbezogenen Dateien generiert. Das System analysiert Ihre Codebasis-Struktur über Verzeichnisbaum und Dateiinhalte, um zielgerichtete Rechercheabfragen zu formulieren. Bis zu 12 fokussierte Recherche-Prompts werden pro Aufgabe generiert.

Recherchethemen

  • API-Dokumentation und bibliotheksspezifische Recherche
  • Fehlerbehebung und Debugging-Ansätze
  • Best Practices und empfohlene Muster
  • Versionskompatibilität und Migrationspfade
  • Sicherheitsüberlegungen und Schwachstellenbewusstsein

Rechercheausführung

Recherche-Prompts werden parallel von KI-Sprachmodellen ausgeführt. Jeder Prompt wird unabhängig verarbeitet, sodass das System Informationen zu mehreren Aspekten Ihrer Aufgabe gleichzeitig sammeln kann. Ergebnisse werden in strukturierte Erkenntnisse mit Titeln und umsetzbaren Einsichten synthetisiert.

Recherche-Schwerpunktbereiche

  • API-Dokumentation und technische Spezifikationen
  • Code-Beispiele und Implementierungsmuster
  • Fehlerbehebung und Problemlösungsansätze
  • Best Practices und Implementierungsmuster
  • Versionskompatibilität und Migrationsleitfäden

Ergebnisverarbeitung & Synthese

Rechercheergebnisse werden im JSON-Format mit Titeln und detaillierten Erkenntnissen strukturiert. Das System aggregiert Ergebnisse aus parallelen Rechercheaufgaben, verfolgt Erfolgs- und Fehleranzahlen und bietet eine Zusammenfassung der Rechercheergebnisse. Ergebnisse werden in Job-Metadaten für einfachen Zugriff gespeichert.

Verarbeitungsschritte

  • Wichtige Erkenntnisse extrahiert und für die Integration formatiert
  • Ergebnisse nach Recherchethema und Relevanz organisiert
  • Erkenntnisse über mehrere Recherche-Prompts hinweg konsolidiert
  • Rechercheausführung mit Zeitmetriken verfolgt
  • Umsetzbare Einsichten und Empfehlungen hervorgehoben

API-Integrationsdetails

KI-Recherche-Konfiguration

Das System verwendet KI-Sprachmodelle über OpenRouter, um intelligente Web-Recherchen durchzuführen. Das LLM generiert zielgerichtete Recherche-Abfragen basierend auf Ihrem Aufgabenkontext und synthetisiert Erkenntnisse aus seinen Trainingsdaten und Web-Suchfähigkeiten. Modellauswahl und -konfiguration werden über die Anwendungseinstellungen verwaltet.

// Start the web search workflow (Tauri command)
await invoke("start_web_search_workflow", {
  sessionId,
  taskDescription,
  projectDirectory,
  excludedPaths: ["node_modules", "dist"],
  timeoutMs: 300000,
});

Inhaltsverarbeitungs-Pipeline

Forschungsergebnisse durchlaufen eine standardisierte Verarbeitungs-Pipeline, die aussagekräftige Informationen extrahiert und dabei Formatierung und Kontext bewahrt. Die Pipeline verarbeitet verschiedene Inhaltstypen und synthetisiert Erkenntnisse zu umsetzbaren Einsichten für Entwicklungs-Workflows.

// WebSearchExecution response (stored in job.response)
{
  "searchResults": [
    { "title": "Research Task 1", "findings": "Summary text..." }
  ],
  "searchResultsCount": 1,
  "summary": "Found 1 research findings"
}

Integration in Entwicklungs-Workflows

Kontextbewusste Recherche

Rechercheanfragen werden automatisch mit Kontext aus Ihrer aktuellen Sitzung erweitert. Das System bezieht den Verzeichnisbaum und ausgewählte Dateiinhalte Ihres Projekts in die Prompt-Generierungsphase ein, sodass die KI Rechercheabfragen formulieren kann, die spezifisch für Ihre Codebasis sind.

Ergebnisintegration

Rechercheergebnisse können zur Information von Implementierungsplänen verwendet werden. Wenn Rechercheaufgaben abgeschlossen sind, werden Erkenntnisse als research_finding-Tags formatiert, die in nachfolgende Planungsaufgaben einbezogen werden können, um sicherzustellen, dass Ihre Implementierung von aktuellen Best Practices und genauer Dokumentation geleitet wird.

Ergebnisspeicherung

Rechercheergebnisse werden in Job-Metadaten gespeichert und können über das Job-Details-Panel abgerufen werden. Ergebnisse bleiben für die Dauer der Sitzung bestehen und können bei der Erstellung von Implementierungsplänen oder Codierungsentscheidungen referenziert werden.

Konfiguration und Anpassung

Rechercheeinstellungen

Das Rechercheverhalten wird durch Modellauswahl und Aufgabeneinstellungen konfiguriert. Wählen Sie Ihr bevorzugtes KI-Modell für Rechercheaufgaben, konfigurieren Sie Timeouts und wählen Sie, welche Dateien für den Kontext einbezogen werden sollen.

Konfigurierbare Optionen

  • Projektverzeichnis- und Dateiauswahl für Kontext
  • Modellauswahl bestimmt Recherchequalität und Kosten
  • Maximal 12 Recherche-Prompts pro Aufgabe generiert
  • Recherche manuell über den Workflow-Befehl starten
  • Relevante Projektdateien für besseren Kontext einbeziehen

Projektspezifische Einstellungen

Die Recherchekonfiguration ist sitzungsbewusst. Das System verwendet das Projektverzeichnis und die einbezogenen Dateien der aktuellen Sitzung, um Kontext bereitzustellen. Ausgeschlossene Pfade (wie node_modules, dist) werden automatisch aus dem dem KI gezeigten Verzeichnisbaum gefiltert.

Kostenüberlegungen

Nutzung und Kosten

Deep Research verwendet Ihre konfigurierten KI-Credits über OpenRouter. Jede Rechercheaufgabe generiert mehrere parallele LLM-Aufrufe, daher skalieren die Kosten mit der Anzahl der generierten Recherche-Prompts. Das System verfolgt Token-Nutzung und Kosten pro Job für Transparenz.

Tipps zur Kostenverwaltung

  • Token-Nutzung pro Recherche-Job mit detaillierter Kostenaufschlüsselung verfolgt
  • Kosten über Ihre OpenRouter- oder PlanToCode-Abonnement-Credits verwaltet
  • Job-Metadaten auf Token-Anzahl und geschätzte Kosten überwachen
  • Rechercheergebnisse pro Sitzung zwischengespeichert, um redundante Abfragen zu vermeiden

Kostenoptimierung

Recherchekosten werden durch intelligente Prompt-Generierung verwaltet - das System begrenzt Recherche-Prompts auf maximal 12 pro Aufgabe. Parallele Ausführung minimiert die Gesamtzeit. Jeder Job verfolgt Token-Nutzung und geschätzte Kosten in seinen Metadaten für volle Transparenz.

Best Practices und Beispiele

Effektive Suchstrategien

Um den Wert der Web-Such-Integration zu maximieren, befolgen Sie diese bewährten Strategien zur Formulierung von Abfragen, Interpretation von Ergebnissen und Integration von Erkenntnissen in Ihren Entwicklungs-Workflow.

Abfrageformulierung

  • Spezifische Versionsnummern einbeziehen, wenn relevant
  • Bibliotheksnamen mit spezifischen Fehlermeldungen kombinieren
  • "Best Practices" oder "empfohlener Ansatz" für Mustersuchen verwenden
  • Plattform- oder Umgebungsbeschränkungen einbeziehen

Ergebnisbewertung

  • Offizielle Dokumentation gegenüber Drittanbieterquellen priorisieren
  • Veröffentlichungsdaten für zeitkritische Informationen prüfen
  • Code-Beispiele in Ihrer Entwicklungsumgebung verifizieren
  • Lösungen aus mehreren Quellen gegenprüfen

Integrationsbeispiele

Gängige Integrationsmuster zeigen, wie Web-Suchergebnisse verschiedene Entwicklungsszenarien verbessern, von der Fehlersuche bei spezifischen Fehlern bis zur Implementierung neuer Funktionen mit unbekannten APIs.

// Example: API integration research
Search query: "Next.js 14 app router middleware authentication"
Results integrated as:
- Middleware setup code with current best practices
- Authentication flow documentation links
- Common pitfalls and troubleshooting tips
- Compatible library recommendations

Fehlerbehebung und Support

Häufige Probleme

Die meisten Rechercheprobleme stammen von LLM-API-Konnektivität, unzureichenden Credits oder zu breiten Prompts. Das System bietet klare Fehlermeldungen und Job-Status-Verfolgung zur Fehlerbehebung.

API-Fehler

OpenRouter-API-Status und Credit-Guthaben prüfen

Keine Recherche-Prompts generiert

Spezifischere Aufgabenbeschreibungen bereitstellen oder relevante Dateien für Kontext einbeziehen

Modellverfügbarkeit

Einige Modelle können regionale Einschränkungen über OpenRouter haben

Leistungsoptimierung

Für optimale Leistung geben Sie klare und spezifische Aufgabenbeschreibungen an. Beziehen Sie relevante Projektdateien ein, um der KI besseren Kontext zu geben. Das System führt Recherche-Prompts parallel aus, um die Gesamtausführungszeit zu minimieren.

Bereit, Deep Research zu nutzen?

Die Deep Research- und Web-Such-Funktionen sind in der PlanToCode-Desktop-Anwendung verfügbar. Laden Sie den Build für Ihre Plattform herunter, um Web-Recherche in Ihren Entwicklungs-Workflow zu integrieren.