Ethische Grundsätze von Chatbots

Ethische Grundsätze von Chatbots

Chatbots beantworten wiederkehrende Fragen, können Teile unserer Aufgaben übernehmen und sind dazu immer und überall einsatzbereit. Sie bringen viele Vorteile, müssen aber durchaus kritisch hinterfragt werden. Wie können wir Chatbots nutzen, ohne uns selbst zu schaden?

Una Sprenger • 12.05.2021

Als im Jahr 2011 der Supercomputer Watson in der Fernsehshow Jeopardy! gegen zwei vorherige Champions gewann, wurde Realität, womit viele Menschen erst in Jahrzehnten gerechnet hatten. Der eigens für die Quizshow realisierte Roboter war in der Lage, komplexe Fragen richtig zu beantworten, und das besser als der Mensch. Während die EntwicklerInnen von IBM die sich daraus ergebenden Potentiale feierten, werden Fragen nach gesellschaftlichen Auswirkungen und ethischen Standards lauter.

Die Europäische Union und Unternehmen wie Microsoft haben Ethik-Guidelines entwickelt, damit Künstliche Intelligenz an Vertrauen und Akzeptanz gewinnen kann (hier und hier). Doch was bedeutet das konkret für Chatbots? Welche Prinzipien sollten in die Umsetzung eines Chatbot-Projektes aufgenommen werden, um verantwortungsvollen Umgang mit der Technologie zu gewährleisten?

Ein Chatbot ist kein Mensch

Transparenz ist das wohl wichtigste Prinzip bei der Anwendung von Bots. Auch wenn ein Chatbot nahe der Menschlichkeit designt wird, muss zu jedem Zeitpunkt klar sein, dass es sich um eine Maschine handelt. Diese kann menschliches Bewusstsein oder Gefühle vielleicht imitieren, tatsächlich fühlen jedoch nicht. Zur scharfen Abgrenzung gehört auch, dass der Bot neutral benannt ist und keinem Geschlecht zugeordnet werden kann ‒ oder die Gründe für das gewählte Geschlecht werden von den EntwicklerInnen offengelegt.

Außerdem sollte der Chatbot konkret benennen können, was er kann ‒ und was nicht. Alle Funktionen müssen klar kommuniziert werden, damit die Erwartungshaltung an den Bot realistisch eingeschätzt wird.

Der Mensch handelt autonom, der Chatbot erhöht die Entscheidungsfreiheit

Während der Mensch weiterhin frei handeln kann, werden die einer Entscheidung zugrunde liegenden Informationen durch Bots gesammelt, strukturiert und aufbereitet. Dafür ist unabdingbar, dass die dargebotenen Informationen richtig und vollständig sind. Alfred Benedikt Brendel, Professor für Wirtschaftsinformatik an der Technischen Universität Dresden, macht deutlich: “Benennt der Chatbot alle Antwortmöglichkeiten, also bspw. alle fünf Optionen oder zeigt man nur drei, und zwei müssten NutzerInnen eintippen? Das muss schon einen sehr guten Grund haben, warum ich [als Chatbot-Betreibender] den NutzerInnen diese zwei Optionen nicht zeige.”

Für die Autonomie des Menschen ist auch wichtig, dass eine durch den Chatbot getroffene Entscheidung (z. B. die Einordnung der NutzerIn in eine Zielgruppe) offen begründet wird. So können Fehlentscheidungen erkannt werden, die in Zukunft vermeidbar sind.

Datenschutz und Gleichbehandlung

Chatbots lernen aus den Eingaben ihrer NutzerInnen, um das zugrundeliegende Machine Learning Modell weiterzuentwickeln. Die Erkennung und Zuordnung der gestellten Fragen kann so immer präziser stattfinden. Natürlich funktioniert dies über die Texteingabe der NutzerIn. Jene sollte aber, auch wenn verschiedene Chatbots gemeinsam lernen, nie auf eine Person zurückzuführen sein.

Weiterhin müssen Chatbots die geltenden Datenschutzgesetze einhalten, sobald sie personenbezogene Daten erheben. Gängige Prinzipien wie Datensparsamkeit oder Zweckbindung sollten in der Bot-Entwicklung Anwendung finden, denn die Privatsphäre ist ein fundamentales Recht, dessen Verletzung verhindert werden muss. Die Möglichkeit, den Chatbot anonym zu nutzen, kann Vertrauen schaffen.

Tatsächlich hat ein Bot viele Stellschrauben, damit der Zugang zu seinen Informationen möglichst offen ist. Beispielsweise kann ein Übersetzungstool an den Chatbot angebunden werden, um jede Person, unabhängig von ihrer Herkunft und Muttersprache, anzusprechen. Eine Voice-Verknüpfung ermöglicht Menschen mit Sehschwäche oder ohne schriftliche Sprachkenntnisse die Nutzung. Die Ausgabetexte sollten so formuliert sein, dass sie einfach verständlich sind und jeden einbeziehen. Damit z. B. auch gegenderte Texteingaben erkannt werden, sollten EntwicklerInnenteams die Vielfalt der Welt widerspiegeln.

Ein Bot kann keine Verantwortung tragen

Technische Robustheit und Sicherheit sind die Grundvoraussetzungen für Vertrauen in Chatbots. Wie können diese gewährleistet werden? Schon in der Entwicklung können Tests durchgeführt werden, die die Funktionsweise des Bots bei unterschiedlicher Belastung sicherstellen. Auch während der Nutzungsdauer braucht es einen Prozess, der die Überarbeitung von Falschentscheidungen (z. B. ungenau zugeordnete Anfragen) definiert. Sollte doch ein Fehler passieren, muss geklärt sein, wer verantwortlich ist ‒ und das können nicht Chatbots, sondern nur Menschen sein.

NutzerInnen müssen wissen, womit sie es zu tun haben

“Wer hat den Benefit? Und wissen die NutzerInnen davon?” Das fragt Professor Brendel grundsätzlich, wenn er das so genannte Nudging durch Chatbots betrachtet. Damit sind sanfte, von der betroffenen Person meist unerkannte Beeinflussungen menschlicher Verhaltensweisen gemeint. Ist der Nutzen für die Gesellschaft, die Umwelt oder für die NutzerInnen selbst, sind aus seiner Sicht sogar Abzüge bei ethischen Standards zulässig. “Wenn ich z. B. einen Assistenten habe, der mir beim Sport hilft, dann ist es okay, wenn dieser mich vielleicht ein bisschen manipuliert, weil es mir hilft, mich fitzuhalten und gesund zu ernähren. Oder nachhaltiger zu sein, oder zur Wahl zu gehen. Andersherum, wenn die Manipulation transparent ist, dann muss man nicht unbedingt pro social, pro environment oder pro self Gründe haben, solang die NutzerInnen auf jeden Fall wissen: Hey, das mache ich, um dir etwas zu verkaufen. Ich verdiene damit Geld!” Besser ist immer das Einhalten aller ethischen Vorgaben.”

Die kritische Diskussion bricht nie ab

Damit Ethik-Guidelines ihren Zweck erreichen, müssen sie offen für jedes Feedback und stetige Weiterentwicklung sein. Größere Unternehmen setzen gern einen KI-ExpertenInnenrat oder eine Ethikkommission ein, die die Auswirkungen der eigenen Produkte kritisch analysieren und Richtlinien für die Bot-Entwicklung erstellen. Wer sich das nicht leisten kann, sollte zumindest ermöglichen, mit niedrigschwelligen Angeboten Feedback einzuholen und Diskussionen zu fördern. Ein Chatbot sollte z.B. ein Eingabefeld vorweisen, über das Feedback anonym an die EntwicklerInnen gegeben werden kann.

Der Supercomputer Watson unterstützt mittlerweile Firmen im Kundenservice, bei der Wissensweitergabe oder technischen Reparaturen. Jetzt muss es darum gehen, dauerhaft einen verantwortungsvollen Umgang mit Künstlicher Intelligenz sicherzustellen. Vielleicht ist es gar nicht so schwer?

Sie interessieren sich für Einsatzmöglichkeiten eines Chatbots in Ihrem Unternehmen? Dann kommen Sie gern auf uns zu. Weiter Informationen zum Thema Chatbots im Personalbereich finden Sie hier: betterhr.de/chatbot

Photo Credit: fernandozhiminaicela