KI und Recht

Wissensgrundlagen und künftige Anforderungen

© Panpatsa - stock.adobe.com

August 2025


Künstliche Intelligenz (KI) verwandelt die Unternehmenswelt in rapider Geschwindigkeit. Und mit jeder neuen Möglichkeit stellt sich auch schnell die Frage: Darf das neue Tool überhaupt eingesetzt werden? Welche datenschutzrechtlichen Fragen müssen berücksichtigt werden? Könnte damit gegen interne Vorgaben verstoßen werden? Dieser Beitrag soll helfen, Orientierung zu schaffen und bei allen Bedenken den Mehrwert der neuen Technologien für kleine und mittlere Unternehmen (KMU) im Fokus zu behalten.

Wichtige rechtliche Rahmenbedingungen

Beim Einsatz von KI in KMU ist ein zentraler Aspekt des Datenschutzes die Einhaltung der Datenschutz-Grundverordnung (DSGVO). Da KI-Systeme häufig personenbezogene Daten verarbeiten, muss sichergestellt werden, dass eine gültige Rechtsgrundlage für die Verarbeitung vorliegt, wie etwa die Einwilligung der Betroffenen oder ein berechtigtes Interesse des Unternehmens. Zudem sind Informationspflichten einzuhalten, sodass Betroffene transparent über Art, Umfang und Zweck der Datennutzung aufgeklärt werden. 

Darüber hinaus spielt das Thema Urheber- und Nutzungsrechte eine wichtige Rolle, da KI-generierte Inhalte wie Texte oder Bilder rechtlich abgesichert sein müssen. KMUs sollten deshalb klären, wem die Rechte an diesen Inhalten zustehen und bei der Nutzung von vortrainierten Modellen oder externer Software unbedingt die Lizenzbedingungen prüfen.

Ein weiterer wichtiger Punkt ist die Produkthaftung und Verantwortlichkeit. Wenn KI-Systeme Entscheidungen treffen oder Prozesse steuern, die zu Fehlern oder Schäden führen, muss klar definiert sein, wer dafür haftbar gemacht werden kann. Dies betrifft insbesondere Unternehmen, die KI für automatisierte Entscheidungen einsetzen.

Auch arbeitsrechtliche Aspekte sind relevant, insbesondere wenn KI im Personalbereich zum Beispiel bei der Bewerberauswahl genutzt wird. Hier ist darauf zu achten, dass die eingesetzten Systeme fair und transparent arbeiten, um Diskriminierung zu vermeiden.

Stichwort: Mitarbeitendenbefähigung

Mitarbeitendenbefähigung ist beim Umgang mit KI in KMU und der Einhaltung rechtlicher Rahmenbedingungen extrem wichtig – oft sogar ein Schlüsselfaktor für den Erfolg der KI-Einführung. Selbst die beste KI-Technologie bringt wenig, wenn die Mitarbeitenden nicht verstehen, wie sie funktioniert, welche Chancen sie bietet und welche Risiken sie birgt. Nur wenn die Beschäftigten kompetent im Umgang mit KI sind, können sie das Potenzial der Technologie voll ausschöpfen, fundierte Entscheidungen treffen und Fehler oder Missbrauch vermeiden.

Das bedeutet konkret: Mitarbeitende brauchen sowohl technisches Know-how als auch ein Bewusstsein für ethische und rechtliche Aspekte, zum Beispiel Datenschutz oder mögliche Verzerrungen (Bias) in den Algorithmen. Schulungen, Weiterbildungen und eine offene Kommunikationskultur sind deshalb entscheidend, damit Unsicherheiten oder Ängste abgebaut werden und Akzeptanz entsteht.

Zudem fördert Befähigung die Innovationskraft im Unternehmen, da Mitarbeitende oft selbst Vorschläge machen können, wie KI sinnvoll eingesetzt wird, um Prozesse zu optimieren oder neue Geschäftsfelder zu erschließen. Gerade in KMU, wo oft weniger Ressourcen zur Verfügung stehen, zahlt sich dieses Engagement direkt aus.

Effektive Maßnahmen sind:

  • Gezielte Schulungen und Workshops zu KI-Recht und Datenschutz
    Regelmäßige, praxisorientierte Trainings vermitteln Grundlagen zu Datenschutz, Haftung und ethischen Aspekten im KI-Einsatz – angepasst an die jeweilige Rolle der Mitarbeitenden.
  • Bereitstellung von Leitfäden und Checklisten
    Einfach zugängliche, verständliche Dokumente helfen Mitarbeitenden, rechtliche Vorgaben im Alltag zu beachten, etwa bei der Nutzung oder Entwicklung von KI-Anwendungen.
  • Einrichtung eines internen Ansprechpartners oder Compliance-Teams
    Eine feste Anlaufstelle für Fragen rund um KI-Recht fördert den Austausch, unterstützt bei Unsicherheiten und sorgt für schnelle Klärung rechtlicher Fragestellungen.

Ethische und internationale Aspekte

KI ist grenzenlos – sie ist untrennbar mit gesellschaftlichen Entwicklungen und Medieninhalten verknüpft. Gleichsam ist digitale Kommunikation und Datenverarbeitung auch eine internationale Aufgabe. Entsprechend gibt es gerade beim Blick auf ethische Fragestellungen auch internationale Regelwerke als Orientierung. Zwar sind viele dieser Regelwerke noch nicht gesetzlich bindend, sie haben aber großen Einfluss auf verantwortungsbewusstes Handeln und die Gestaltung von KI-Systemen.

Es gibt mittlerweile mehrere ethische Regelwerke und Leitlinien, die Unternehmen Orientierung bieten sollen. Zwar sind viele dieser Regelwerke noch nicht gesetzlich bindend, sie haben aber großen Einfluss auf verantwortungsbewusstes Handeln und die Gestaltung von KI-Systemen. Hier eine Übersicht der wichtigsten ethischen Prinzipien und Regelwerke:

  • EU-Leitlinien: Die Europäische Kommission hat 2019 „Ethik-Leitlinien für vertrauenswürdige KI“ veröffentlicht. Diese basieren auf sieben Schlüsselanforderungen (darunter menschliche Handlungsfähigkeit, Privatsphäre, gesellschaftliches und ökologisches Wohlergehen).
  • OECD-Prinzipien: Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) hat 2019 Prinzipien für den Umgang mit KI verabschiedet, die u. a. Menschenrechte respektieren, Fairness und Transparenz fördern sowie Verantwortlichkeit und Sicherheit sicherstellen.
  • UNESCO-Empfehlungen: Die UNESCO hat 2021 eine Empfehlung zur Ethik der KI verabschiedet, die globale ethische Prinzipien formuliert, darunter Gerechtigkeit, Menschenwürde, Privatsphäre, Verantwortung und Nachhaltigkeit.

Diese und weitere internationale Regelwerke stärken und ergänzen nationale Leitlinien. Gerade für KMU lohnt es sich, auch diese größeren internationalen Entwicklungen auf dem Schirm zu halten und daraus abzulesen, welche Bedarfe und Trends beim Thema KI erwachsen.

Ausblick

Klar ist, dass Unternehmen KI einsetzen müssen, um langfristig wettbewerbsfähig zu bleiben. Wo und wie genau dies geschieht, ist individuell und muss auch eingebettet in die jeweilige Unternehmensstrategie beantwortet werden. Bei eben einer solchen zukunftsorientierten Einbettung von KI sollten auch die folgenden rechtlichen Herausforderungen berücksichtigt werden, die über die genannten Fragestellungen hinausgehen. 

Die künftigen rechtlichen Herausforderungen für Unternehmen beim Einsatz von KI werden vielfältig und komplex sein, da sich Technologie, Gesellschaft und Recht ständig weiterentwickeln. Hier sind einige der zentralen Themen, die Unternehmen in den kommenden Jahren voraussichtlich beschäftigen werden:

  1. Regulierung von KI-Haftung und Verantwortung
    Derzeit ist oft unklar, wer haftet, wenn KI-Systeme Fehler machen oder Schäden verursachen – sei es durch falsche Entscheidungen, Sicherheitslücken oder fehlerhafte Datenverarbeitung. Zukünftige Gesetze werden voraussichtlich klare Haftungsregelungen schaffen müssen, etwa wer bei autonomen Systemen verantwortlich ist: der Entwickler, der Betreiber oder gar die KI selbst (Stichwort „Künstliche Person“).
  2. Datenschutz und Datenhoheit
    Mit der steigenden Nutzung von KI wächst auch die Menge an Daten, die verarbeitet werden. Datenschutzbestimmungen wie die DSGVO werden wahrscheinlich weiter verschärft oder durch neue Vorgaben ergänzt, um den Schutz personenbezogener Daten besser sicherzustellen. Zudem wird die Frage wichtiger, wie Unternehmen Daten fair und transparent nutzen, ohne Rechte von Individuen zu verletzen.
  3. Transparenz und Erklärbarkeit (Explainability)
    Gesetzgeber fordern zunehmend, dass KI-Entscheidungen nachvollziehbar und erklärbar sein müssen, insbesondere bei automatisierten Entscheidungen mit großen Auswirkungen (z.B. Kreditvergabe, Bewerberauswahl). Unternehmen müssen deshalb technische und organisatorische Maßnahmen treffen, um Transparenz zu gewährleisten.
  4. Bekämpfung von Diskriminierung und Bias
    KI-Systeme können unbewusst Vorurteile reproduzieren und diskriminierende Entscheidungen treffen. Künftige rechtliche Anforderungen werden Unternehmen verpflichten, Algorithmen auf Bias zu prüfen, zu dokumentieren und Maßnahmen zur Vermeidung von Diskriminierung zu ergreifen.
  5. Sicherheitsanforderungen und Cybersecurity
    KI-Systeme können Ziel von Cyberangriffen sein oder selbst Sicherheitsrisiken bergen. Künftige Gesetze werden wahrscheinlich strengere Sicherheitsstandards und Nachweispflichten vorschreiben, um Manipulationen und Missbrauch zu verhindern.

 

Insgesamt wird die Rechtslandschaft rund um KI deutlich dynamischer und komplexer werden. Für Unternehmen bedeutet das, dass sie sich kontinuierlich über neue Entwicklungen informieren und ihre KI-Strategien sowie Compliance-Maßnahmen flexibel anpassen müssen, um Risiken zu minimieren und Wettbewerbsvorteile zu sichern. Damit werden auch KMU in Baden-Württemberg die Potenziale von KI erschließen können, die ihnen z. B. durch Markterschließung und Effizienzsteigerung Wettbewerbsvorteile eröffnen.