Was passiert mit unseren Daten, wenn wir KI-Tools nutzen?

4.11.2025
Lesezeit: 9 Minuten

KI-Tools wie ChatGPT oder Claude können echte Produktivitätsbooster sein. Doch was passiert mit deinen Daten? Hier erfährst du, wie du KI datenschutzkonform einsetzt, ganz speziell für Schweizer Unternehmen.

Supported by AI
Tool(s) verwendet
TL;DR

Datenschutz und KI müssen kein Widerspruch sein. Klassische KI-Anbieter wie OpenAI und weitere, können ein Risiko für deine Daten darstellen. Deshalb ist es wichtig, dass auch datenschutzkonformen Alternativen wie amazee.ai aufgezeigt werden. Wenn du KI in deinem Unternehmen sicher und compliant nutzen willst, führt kaum ein Weg daran vorbei, selbst zu hosten oder dich an Drittanbieter, die dir die Compliance garantieren, zu wenden. Ganz besonders relevant ist dies für Schweizer KMU, die mit sensiblen Informationen arbeiten.

Artikel als Podcast hören

Inhalt auf einen Blick

Datenschutz im Zeitalter von KI: Ein Balanceakt

Wenn du mit sensiblen Kundendaten arbeitest, stehst du früher oder später vor der Frage: Darf ich diese Informationen überhaupt in eine KI eingeben? Die Antwort ist klar: Nur, wenn du verstehst, was mit den Daten passiert, wo sie gespeichert werden und wer darauf zugreifen kann.

Michael Schmid, Founder & General Manager von amazee.io, bringt es auf den Punkt: «Stell dir vor, jede Eingabe, die du machst, wird irgendwann öffentlich. Würdest du das trotzdem eintippen?» Genau diese Haltung hilft, bewusst mit KI-Systemen umzugehen.

Warum datenschutzkonforme KI keine Wunschvorstellung ist

Viele glauben, sie hätten die Kontrolle über ihre Daten, weil sie Tools wie Office 365 oder Google Workspace nutzen. Doch gerade bei generativer KI ändert sich das Spiel: Die Daten können auf bis zu 60 verschiedene Länder verteilt werden. Oft ohne zu wissen, welcher Cloud-Provider deine Information wirklich verarbeitet.

Bei Anbietern wie OpenAI oder Anthropic (Claude) werden Eingaben und Ausgaben gespeichert. Das geschieht nicht nur, um die Modelle weiter zu verbessern, sondern kann auch Drittparteien den Zugriff ermöglichen. In den USA genügt in manchen Fällen bereits ein behördlicher Antrag, damit auf gespeicherte Daten zugegriffen werden kann. Eine gerichtliche Entscheidung ist dafür nicht zwingend erforderlich.

amazee.ai: Ein Schweizer Ansatz mit Fokus auf Privacy

Michael Schmid und sein Team bei amazee.io haben mit amazee.ai einen Private AI Assistant gebaut, der einen klaren Gegenpol setzt:

  • Datenspeicherung wählbar: Du kannst explizit das Land definieren, in dem deine Daten gespeichert und verarbeitet werden.
  • Keine Speicherung von Eingaben und Ausgaben: Damit wird verhindert, dass deine Daten in Trainingsmodellen landen oder zu einem "Honeypot" für Hacker werden.
  • Betrieb auf dedizierter Infrastruktur: Selbst wenn sie AWS verwenden, läuft alles auf isolierten Instanzen. Niemand ausser dir hat Zugriff.

Ein Praxisbeispiel: Wenn du sensitive Verträge oder NDA-Inhalte analysieren willst, kannst du mit amazee.ai sicherstellen, dass diese Daten weder weitergeleitet noch gespeichert werden. Das reduziert das Risiko auf ein Minimum.

Warum eine eigene KI-Lösung selten Sinn macht

Viele Unternehmen denken darüber nach, eigene LLM-Systeme (Large Language Models) zu betreiben. Doch die Realität sieht oft so aus:

  • Du brauchst mindestens 3 Vollzeitstellen (Frontend, Backend, Produktleitung)
  • Kostenpunkt: über 500'000 CHF pro Jahr
  • Du bist trotzdem abhängig von Frameworks wie Chainlit oder Open Web UI

Michael Schmid bringt es auf den Punkt: «Wir sehen uns als Firma, die komplexe Systeme einfach macht.» Genau deshalb bietet amazee.ai eine Zwischenlösung für Unternehmen, die Sicherheit UND Komfort wollen.

Was heisst das für dich konkret?

Wenn du in einem Unternehmen arbeitest, das Kundendaten verarbeitet, solltest du dir folgende Fragen stellen:

  1. Wo werden die Daten gespeichert?
  2. Wer hat Zugriff darauf?
  3. Werden die Eingaben für Trainingszwecke gespeichert?
  4. Kann ich kontrollieren, was mit den Daten passiert?

Falls du auch nur eine dieser Fragen mit «Ich weiss es nicht» beantworten musst, lohnt sich ein Blick auf datenschutzkonforme Alternativen.

Fazit: Es geht nicht nur um Technologie, sondern um Verantwortung

Die Diskussion rund um KI Datenschutz Schweiz ist mehr als ein Hype. Sie ist eine Notwendigkeit. Es geht nicht darum, komplett auf KI zu verzichten, sondern darum, sie verantwortungsvoll und transparent einzusetzen.

Michael Schmid sagt es treffend: «Read the f***ing Privacy Policy.» Oder wie wir sagen würden: Schau genau hin, bevor du losschreibst.

Wenn du jetzt denkst: «Ich will das für meine Firma klären» – dann ist jetzt der richtige Zeitpunkt.

Newsletter

Neue Artikel per Mail gefällig?

Hat alles geklappt!
Irgendwas ist schief gelaufen...

Hat
Künstliche Intelligenz Potenzial bei dir?