Digitale Ethik in der Schweiz

Wer trägt Verantwortung für Algorithmen?

Lesezeit:        4 Min.
Publikation:    15. Oktober 2025, Jessy Thür

Algorithmen nehmen in der Schweiz immer stärker Einfluss auf Alltag, Wirtschaft und öffentliche Verwaltung. Zum Beispiel in Bereichen wie Arbeitsmarktprofiling, Kreditvergabe, Gesichtserkennung oder Chatbots. Doch wer ist verantwortlich, wenn diese Systeme Fehler machen, diskriminieren oder ethische Grenzen überschreiten?

Sicherheitsschild auf Hand

Rechtlicher Rahmen in der Schweiz

  • Kein spezifisches KI-Gesetz – bisher
    Die Schweiz verfügt (Stand Mitte 2025) noch über kein übergreifendes Gesetz, das alle Aspekte von KI speziell reguliert. Der Bundesrat hat aber eine Auslegeordnung zu möglichen Regulierungsansätzen beschlossen und verschiedene Departemente beauftragt, bis Ende 2026 eine Vernehmlassungsvorlage zu erarbeiten, die etwa Transparenz, Datenschutz, Nichtdiskriminierung und Aufsicht umfassen soll.
  • Datenschutzgesetz (DSG)
    Seit September 2023 gilt ein revidiertes Datenschutzgesetz, das technologieneutral formuliert ist. Obwohl es kein KI-spezifisches Regelwerk ist, enthält es bereits relevante Pflichten für Entwickler, Anbieter und Nutzer, zum Beispiel Transparenzpflichten, Pflichten zur Nutzung personenbezogener Daten und Einschränkungen bei riskanten Anwendungen wie Social Scoring oder Echtzeit-Gesichtserkennung.

  • KI-Konvention des Europarats
    Die Schweiz plant, die Konvention des Europarats zu KI zu ratifizieren. Diese enthält Leitlinien, insbesondere zu Transparenz, Grundrechten und Verantwortlichkeit, die ins Schweizer Recht übernommen werden sollen.

Wer übernimmt Verantwortung – Akteure in der Schweiz

  • Unternehmen und Entwicklern
    Wenn Firmen in der Schweiz KI-Systeme erstellen oder einsetzen, tragen sie Verantwortung für Designentscheidungen: Auswahl und Qualität der Trainingsdaten, Bias-Vermeidung, Testing und Monitoring. Sie müssen sicherstellen, dass ihre Systeme den Vorgaben des Datenschutzgesetzes genügen, also zum Beispiel Transparenz schaffen oder riskante Eingriffe vermeiden.
  • Geschäftsleitungen und Governance-Strukturen
    Unternehmensleitungen müssen Ethik in ihre Strategie einbinden: Leitlinien zur digitalen Ethik, Risikobewertung, Audit‐ und Prüfprozesse. Die Organisation „Innovate Switzerland“ etwa fordert in ihrem 8-Punkte-Plan unter anderem, dass Unternehmen Selbstverpflichtungen eingehen und Standards für Bewertung und Zertifizierung von KI-Systemen schaffen.
  • Bund und Politik
    Der Bund ist dabei, den gesetzlichen Rahmen zu gestalten. Zuständige Departemente (z. B. UVEK, EJPD, EDA) arbeiten an Gesetzesentwürfen beziehungsweise Vernehmlassungsvorlagen, die auch sektorübergreifende Regeln umfassen sollen, zum Beispiel bei Gesundheit, Verkehr oder Datenschutz. Durch die Ratifikation der KI-Konvention und durch Anpassungen des Rechtsrahmens wird eine wichtige Rolle übernommen.
  • Öffentliche Kontrolle, Forschung und Zivilgesellschaft
    Organisationen wie der EDÖB (Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter) geben Richtlinien heraus, kontrollieren die Einhaltung der Datenschutzvorgaben und weisen auf Risiken wie Überwachung oder diskriminierende Systeme hin. Studien und Forschung zur Transparenz und Fairness (z. B. im Bereich Arbeitsmarktprofiling) liefern wichtige Einsichten.
  • Betroffene Nutzer und Gesellschaft
    Nutzer haben Rechte: Auskünfte, Widerspruch gegen bestimmte Anwendungen, Transparenz über Datennutzung etc. Diese Rechte ergeben sich aus dem Datenschutzgesetz. Auch gesellschaftlicher Diskurs (Medien, NGOs) ist wesentlich, um Bewusstsein zu schaffen und Missstände aufzuzeigen.

Beispiele und Herausforderungen in der Schweiz

  • Chatbots und Haftungsfragen
    Es gibt Fälle, in denen Chatbots falsche Informationen geliefert haben (z. B. von Ricardo, Salt). Die Firmen haben sich jedoch oft darauf berufen, dass Haftung durch AGB oder Disclaimer ausgeschlossen ist. Rechtlich ist hier vieles noch ungeklärt.
  • Profiling im Arbeitsmarkt
    Neue Studien zeigen, dass Arbeitsmarktbehörden zunehmend statistisches Profiling verwenden, um Langzeitarbeitsrisiken vorherzusagen. Opaque Modelle werfen Fragen zur Fairness und Nachvollziehbarkeit auf. Forschung legt nahe, dass interpretable Modelle fast genauso gut funktionieren und besser zur Verantwortlichkeit beitragen.

Fazit

In der Schweiz liegt die Verantwortung für ethisch einwandfreie Algorithmen nicht allein bei einem Akteur.
Es braucht:
  • Unternehmen, die von Anfang an ethische Prinzipien integrieren
  • klare gesetzliche Rahmenbedingungen, die Transparenz, Datenschutz und Nichtdiskriminierung gewährleisten
  • Behörden und Zivilgesellschaft, die Kontrolle übernehmen und öffentlich wachsam sind
  • Betroffene, die ihre Rechte kennen und einfordern.
Die laufenden Entwicklungen – DSG, KI-Konvention des Europarats, die Auslegeordnung und Vernehmlassungsvorhaben – zeigen, dass die Schweiz auf dem Weg ist, Verantwortung zu institutionalisieren. Damit Vertrauen in algorithmisch gestützte Systeme wachsen kann.

Quellen:

  • „So betrifft das Schweizer Datenschutzgesetz KI‑Anwendungen“, IT‑Markt. it-markt.ch
  • Medienmitteilung: „KI‑Regulierung: Bundesrat will Konvention des Europarats ratifizieren“. Der Bundesrat, Schweiz, 12. Februar 2025. Bundesverwaltung Schweiz

«digitaljournal.ch»

Kommentare

Beliebte Posts aus diesem Blog

Cyberbedrohungen: Schweiz stärkt Schutz weltweit

Wenn KI den Schweizer Webtraffic verschluckt

Domain-Trends 2025: Schweiz im Fokus