Versionen der Bots



04.07.2025
Fehlermeldung bei Anthropic-Überlastung, Fallback-Lösung in Beta & Fix für Schutzregel-Umgehung: Seelsorgetrainingsbot (Chat und Talk)

Immer wieder kommt es zu Problemen mit der Erreichbarkeit der Anthropic-Modelle (z. B. Claude), insbesondere bei hoher Auslastung. Das kann frustrierend sein – für euch und auch für mich. Deshalb habe ich jetzt ein kleines, aber hilfreiches Update eingebaut:

Wenn die Anthropic-LLMs überlastet sind, erscheint ab sofort eine klar formulierte Fehlermeldung:

„Die Anthropic-LLMs sind derzeit überlastet. Bitte versuche es in 1–2 Minuten noch einmal.“

So wisst ihr sofort, woran es liegt – und dass es sich meist nur um eine kurze Wartezeit handelt.

Was kommt als Nächstes?

Ich arbeite aktuell an einer automatischen Fallback-Lösung, die einspringt, falls Claude eine Anfrage nicht verarbeiten kann. In solchen Fällen würde z. B. automatisch ChatGPT übernehmen – damit ihr den Seelsorge-Trainingsbot weiterhin nutzen könnt, auch wenn Claude gerade nicht verfügbar ist.

Diese Umschaltfunktion befindet sich bereits in der Beta-Phase, erste Tests laufen stabil – und ich plane, sie bald allgemein verfügbar zu machen.

Fix für Schutzregel-Umgehung: Guardrail-Bypass oder Policy-Umgehung

Außerdem habe ich ein Problem behoben, bei dem bestimmte Schutzmechanismen umgangen werden konnten. Konkret war es möglich, Claude durch gezieltes Prompting für persönliche Anwendungen außerhalb des Seelsorge-Trainingsbots und seiner simulierten Szenarien zu nutzen – etwa zur Code-Generierung oder beim Bau eigener Projekte –, obwohl dieser Nutzungsfall eigentlich eingeschränkt sein sollte.



24.06.2025
Seelsorgetrainingsbot (Chat und Talk)
Nach Rückmeldung von Betatestern wurden einige Sachen verbessert:

Beide: Der Systemprompt wurde nochmal verfeinert:
Basierend auf intensivem Testen und wertvollem Feedback habe ich den Seelsorgetrainingsbot verbessert, um die Trainingssimulationen noch lebensechter, herausfordernder und lehrreicher zu gestalten. Die Gespräche fühlen sich nun noch mehr wie wie eine authentische Begegnung an.

Tiefergehende und realistischere Charaktere

  • Simulierte Personen haben eine glaubwürdige innere Welt
  • Oft ein „Vorwand-Thema“ zu Beginn, das wahre „Kern-Problem“ liegt tiefer
  • Emotionen sind ambivalent (z. B. gleichzeitig wütend und beschämt)
  • Nicht mehr emotional eindimensional
  • Seelsorger muss mehr arbeiten, um echtes Vertrauen aufzubauen
  • Die simulierte Person öffnet sich nicht sofort

Realistischere Gesprächsverläufe

  • Gespräche verlaufen langsamer und weniger geradlinig
  • Die Person kann thematisch „meandern“ und schweifen
  • Bot reagiert nicht mehr direkt auf eine einzige empathische Geste
  • Erst mehrere unterstützende Reaktionen schaffen Sicherheit
  • Kann ausweichen oder Themen wechseln, statt sofort zu antworten
  • Bei schwerem Fehlverhalten des Seelsorgers oder wenn es zur Situation passt, kann der Bot das Gespräch auch selbst beenden

Klarere Struktur und erweitertes Feedback

Hinweise, wo das Gespräch vertieft oder besser gesteuert werden könnte


Talk: Der Bot beendet jetzt Gespräche nicht mehr automatisch nach 5min Gesprächszeit.