Für diesen Artikel wurde ein Foto vom ChatGPT-Bildgenerator mit folgendem Prompt erstellt: „Erstelle bitte ein fotorealistisches Bild im Querformat. Auf dem Bild ist eine Weggabelung zu sehen an der ein Mann steht mit einem Tablett in der Hand, auf dem KI steht. Links ist ein Weg mit Straßenschildern wie „Ethik“, „Verantwortung“, „Transparenz“. Rechts ein digital leuchtender Weg, der in eine futuristische Stadt führt, mit Schildern wie „Automatisierung“, „Effizienz“, „Risiko?“, „Intransparenz“.

Digitalisierung

Zwischen Fortschritt und Verantwortung: KI und Ethik

Die künstliche Intelligenz verändert unsere Gesellschaft – in einer Geschwindigkeit, die Politik, Verwaltung und Öffentlichkeit gleichermaßen fordert. Je stärker Maschinen mitentscheiden, desto lauter wird aber auch die Frage nach der Verantwortung: Wer kontrolliert die Technologie? Wo verlaufen die ethischen Grenzen? Und was passiert, wenn die KI halluziniert – also überzeugend formuliert, aber faktisch irrt?

Mit jeder Automatisierung von Entscheidungen stellt sich eine zentrale Frage: Nach welchen Werten handelt die Maschine? Denn die KI ist nicht neutral. Sie spiegelt nur die Daten und Inhalte wider, mit denen sie gefüttert wurde – und damit auch die Vorurteile und blinden Flecken ihrer Entwickler und Nutzer.

Ein Beispiel: Ein Algorithmus zur Bewerberauswahl bevorzugt männliche Kandidaten, weil die Trainingsdaten auf früheren Einstellungsverfahren beruhen, in denen Männer dominierend waren. Hier zeigt sich: Ohne sorgfältige ethische Reflexion können KI-Systeme Diskriminierung sogar verstärken, statt abzubauen. So entstehen neue Spannungsfelder zwischen Fortschritt und Verantwortung. 

Einige internationale Institutionen haben auf diese Herausforderungen bereits reagiert: Die UNESCO formulierte ethische Empfehlungen und die EU hat mit dem „AI Act“ eine gesetzlich verbindliche KI-Verordnung publiziert. 
Alle sind sich einig, dass die KI transparent, gerecht und menschenzentriert sein muss. Klingt gut. Doch der Praxistransfer gestaltet sich schwierig. Wer kontrolliert zum Beispiel die Einhaltung dieser Leitlinien? Hier fehlen noch viele Antworten. Am Ende braucht es – wie bei allen Regulierungsfragen – die politische Verantwortung auf allen Ebenen.

Sensibilisierung und Plausibilitätsdenken

Technische Entwicklungen erfordern immer auch gesellschaftliche Bildung. So wird Medienkompetenz heute zur Kernkompetenz – in Schulen, Verwaltung und Politik. Wer mit der KI arbeitet, muss ihre Grenzen kennen. Denn die KI rechnet mit Wahrscheinlichkeiten, kennt aber keine Wahrheit. Gerade Gemeinden können durch Fortbildungen für Mitarbeiter, Bildungsinitiativen in Schulen und eine öffentliche Diskussion über Chancen und Risiken durchaus Vorreiter sein. 

Trotzdem bleiben Plausibilitätsdenken, Quellenkritik und ein gesunder Menschenverstand unerlässlich. Hier ist jeder Einzelne gefordert: Was ist mein Beitrag zu einer gerechten digitalen Gesellschaft? Wie gehe ich selbstbestimmt und kritisch mit der KI um?

Fake-News und Desinformation

Denn die KI kann nicht nur informieren, sondern auch manipulieren. Fake-Bilder, Deepfakes und automatisch generierte Falschmeldungen lassen sich binnen Sekunden erstellen und schnell über soziale Medien verbreiten. Für Gemeinden steht nicht weniger als das Vertrauen in die öffentliche Kommunikation auf dem Spiel. Deshalb sollte man in der kommunalen Praxis einige Prinzipien, wie sie etwa von der EU-Kommission im AI-Act formuliert wurden, beachten:

  • Achtung der menschlichen Autonomie
  • Schadensvermeidung und Fairness
  • Transparenz und Verständlichkeit
  • Nachvollziehbarkeit und Erklärbarkeit
  • Menschliche Verantwortung

Diese Prinzipien sollten bei der Einführung von künstlicher Intelligenz in Gemeinden stets als Prämisse dienen, denn die Kommunen stehen als Dienstleister, als Vorbilder und als erste Anlaufstelle für Bürgerinnen und Bürger besonders im Fokus.

Mögliche technische Gegenmaßnahmen zur Vermeidung von Fake-News sind zum Beispiel digitale Wasserzeichen, journalistisch-professionelle Faktenchecks sowie eine bewusste, transparente Informationskultur auf kommunaler Ebene. Denn nur, wer klar und verlässlich kommuniziert, stärkt das Vertrauen der Bürgerinnen und Bürger.

Die Verantwortung bleibt menschlich

So beeindruckend die KI auch ist, sie ist kein moralisches Subjekt. Sie kennt keine Werte, keine Empathie, kein Verantwortungsgefühl. Diese Verantwortung bleibt bei uns – bei den Entwicklern, den Nutzern und vor allem bei den politischen Entscheidungsträgern. Auch Gemeinderäte stehen in der Pflicht: Sie müssen nicht alles wissen, aber sie müssen die richtigen Fragen stellen: Wofür setzen wir die KI ein? Welche Daten verwenden wir? Wo soll uns die Technik unterstützen und wo nicht?

Am Ende muss immer der Mensch die letzte Instanz bleiben. Oder wie es der Sozialethiker Thomas Gremsl von der Universität Graz beim Kommunalwirtschaftsforum formulierte: „KI für den Menschen – nicht statt des Menschen.“ 

Nichts ist perfekt: Wenn die KI halluziniert

Ein zentrales Risiko bei der Verwendung von KI wird oft unterschätzt: Das sogenannte „Halluzinieren“. 
Dabei produziert die KI scheinbar logische und korrekte Aussagen, die jedoch falsch oder frei erfunden sind. Gerade für Gemeinden sind nicht perfekte Algorithmen gefährlich: Falsche Auskünfte bei Anträgen, Missverständnisse im Bürgerservice oder gar rechtliche Folgen durch falsche Empfehlungen können Vertrauen und Effizienz untergraben. Deshalb gilt: Auch bei überzeugender Darstellung – die Ergebnisse der KI müssen stets geprüft und kontextualisiert werden.

Der Beitrag erschien in der NÖ Gemeinde 6/2025.