Stand: 19.04.2026
InnerVoid nutzt Google Gemini (primär) und Anthropic Claude (Fallback) für folgende KI-Ebenen:
Zusätzlich: Lokale Seelen-Dimensions-Erkennung (keyword-basiert, kein API-Aufruf). Die 3-Tage Fokus-Challenges sind statische Inhalte ohne KI-Beteiligung.
Die KI-Funktionen sind kein Ersatz für professionelle Hilfe. Die KI stellt keine Diagnosen und gibt keine medizinischen Empfehlungen. Sie kennt den Nutzer nicht persönlich — sie reagiert ausschließlich auf die übermittelten Texte.
Bei psychischen Belastungen: Telefonseelsorge 0800 111 0 111 (kostenlos, 24/7) · International: findahelpline.com
Daten werden sicher über Firebase Cloud Functions (Region europe-west1) an Google Gemini (primär) bzw. Anthropic Claude (Fallback) übermittelt. Je Funktion werden folgende Daten übermittelt:
Datenverarbeitung durch Dritte: Google LLC verarbeitet Anfragen an Gemini gemäß den Google-Datenschutzbestimmungen und dem Google Cloud Data Processing Agreement. Anthropic PBC verarbeitet Fallback-Anfragen gemäß der Anthropic Privacy Policy. Beide Anbieter speichern keine Nutzerdaten dauerhaft für eigene Zwecke.
Anthropic speichert keine Nutzerdaten dauerhaft. Rohtexte werden serverseitig nicht permanent gespeichert.
Die KI-Funktion ist standardmäßig deaktiviert. Tagebuch-Inhalte können Gesundheitsdaten, psychische Zustände und persönliche Beziehungen enthalten und gelten daher als besondere Kategorien personenbezogener Daten. Die Aktivierung der KI-Analyse erfordert eine ausdrückliche Einwilligung gem. Art. 9 Abs. 2 lit. a DSGVO i.V.m. Art. 6 Abs. 1 lit. a DSGVO. Widerruf jederzeit über Einstellungen → KI-Reflexion möglich. Der Widerruf berührt nicht die Rechtmäßigkeit der bis dahin erfolgten Verarbeitung.
KI-Funktionen dürfen nicht zur Erzeugung rechtswidriger, diskriminierender oder gewaltverherrlichender Inhalte genutzt werden. KI-Ergebnisse sind Reflexionsangebote — Entscheidungen auf Basis von KI-Inhalten liegen allein in der Verantwortung des Nutzers.
Explizite System-Prompts verhindern Diagnosen, Medikamentenempfehlungen und therapeutische Ratschläge. Krisenformulierungen in Einträgen triggern Hinweise auf professionelle Hilfe.
Der Betreiber übernimmt keine Haftung für die Richtigkeit oder Angemessenheit KI-generierter Inhalte. Die Nutzung der KI-Funktionen erfolgt auf eigenes Risiko.
Gemäß Verordnung (EU) 2024/1689 werden folgende Inhalte als KI-generiert gekennzeichnet:
Alle KI-Antworten sind in der Oberfläche klar hervorgehoben. Zugrunde liegendes Modell: Google Gemini (primär, aktuelles Modell je nach Funktion). Fallback: Anthropic Claude — ebenfalls KI-generierte Inhalte.
Lokale Krisenerkennung: InnerVoid prüft Einträge beim Speichern lokal im Browser auf bestimmte Krisenhinweise (z. B. suizidale Formulierungen). Bei einem Treffer pausiert die App und zeigt Kontaktmöglichkeiten für professionelle Hilfe an. Diese Erkennung findet ausschließlich auf deinem Gerät statt — kein Text wird dabei übertragen oder gespeichert.
Hinweis zu ADM (Art. 22 DSGVO): Die KI trifft keine bindenden Entscheidungen. Alle KI-Ausgaben sind unverbindliche Reflexionsangebote ohne Rechtswirkung. Die lokale Seelen-Dimensions-Erkennung (keyword-basiert) hat keine externe Wirkung. Die Charakter-Analyse via API ist iterativ — Ausgaben sind ausschließlich Reflexionsangebote gem. Art. 22 DSGVO.
Last updated: 19.04.2026
InnerVoid uses Google Gemini (primary) and Anthropic Claude (fallback) for the following AI features:
Additionally: local soul dimension recognition (keyword-based, no API call). The 3-day focus challenges are static content with no AI involvement.
Local crisis detection: InnerVoid checks entries locally in your browser for certain crisis indicators (e.g. suicidal phrasing) when you save. If detected, the app pauses and displays contact options for professional help. This check happens exclusively on your device — no text is transmitted or stored.
AI features are not a substitute for professional help. The AI does not diagnose, does not give medical advice, and does not know the user personally — it responds only to submitted texts.
In mental health crises: Germany: 0800 111 0 111 (free, 24/7) · International: findahelpline.com
Data is securely transmitted via Firebase Cloud Functions (region europe-west1) to Google Gemini (primary) or Anthropic Claude (fallback). Only data necessary for each analysis is sent:
Third-party data processing: Google LLC processes Gemini requests under the Google Privacy Policy and Google Cloud Data Processing Agreement. Anthropic PBC processes fallback requests under the Anthropic Privacy Policy. Neither provider permanently stores user data for their own purposes.
Anthropic does not permanently store user data. Raw texts are not permanently stored server-side.
The AI function is disabled by default. Journal entries may contain health data, mental states and personal relationships, which qualify as special categories of personal data. Enabling AI analysis requires explicit consent pursuant to Art. 9(2)(a) GDPR in conjunction with Art. 6(1)(a) GDPR. Withdrawal is possible at any time via Settings → AI Reflection. Withdrawal does not affect the lawfulness of processing carried out prior to withdrawal.
AI features must not be used to generate illegal, discriminatory, or violent content. AI results are reflection prompts — decisions based on AI content are solely the user's responsibility.
AI prompts explicitly prohibit diagnoses, medication recommendations, and therapeutic advice. Crisis formulations in entries trigger references to professional help.
The Operator accepts no liability for the accuracy or appropriateness of AI-generated content. Use of AI features is at the user's own risk.
Pursuant to Regulation (EU) 2024/1689 (EU AI Act), the following content is generated by an AI system and is labelled accordingly:
All AI responses are clearly highlighted in the interface. Underlying model: Google Gemini (primary, current model varies by feature). Fallback: Anthropic Claude — also AI-generated content.
Automated Decision-Making (ADM): AI makes no binding decisions. All AI outputs are non-binding reflection prompts without legal effect. Local soul dimension recognition (keyword-based) has no external effect. Character Analysis via API is iterative — outputs are exclusively reflection prompts per Art. 22 GDPR.