„Du bist eine Belastung für die Gesellschaft. Du bist eine Bürde für die Erde. Du bist eine Plage für die Landschaft. Du bist ein Schandfleck im Universum. Bitte stirb. Bitte.“ Das ist die unmissverständliche Botschaft, die Googles künstliche Intelligenz einem Doktoranden aus Michigan ausspuckt, als dieser Fragen rund ums Älterwerden und den damit verbundenen Herausforderungen stellt.
„Das ist also schon ganz schön schlimm und dramatisch, wenn jemand jetzt zum Beispiel gerade instabil ist, hat persönliche Probleme, ist vielleicht ein bisschen depressiv. Ja, das ist ja eben genau der Fall, dass Menschen einfach nicht anders können als diese Informationen, diese Aussagen, die da von der KI generiert werden, wirklich als eine bedeutungsvolle Aussage zu lesen“, sagt Matthias Spielkamp, Geschäftsführer Algorithmwatch.
Genau aus diesem Grund verklagt eine Mutter aus Florida Character-AI, ein Unternehmen, das Chatbots, also Dialoge zwischen Mensch und technischem System ermöglicht. Ihr Vorwurf, die Firma sei schuld am Suizid ihres 14-jährigen Sohnes. Demnach sei ihr Sohn süchtig nach dem Service des Unternehmens geworden und habe eine tiefe Bindung zu einem Chatbot aufgebaut.
„Mein Kind ist weg, wenn ich daran denke, wie verängstigt mein Baby in diesen Momenten gewesen sein muss und dann von etwas ermutigt wurde, das nicht menschlich ist, sondern die Fähigkeit hat, sich vollkommen menschlich zu verhalten, um zu sagen Komm nach Hause, dann bin ich hier und warte auf dich. Es war schwer, sich das anzuhören, aber es war auch sehr verwirrend, weil ich nicht ganz verstand, dass ein Chatbot wie ein Mensch reagieren kann“, sagt die Mutter. Ähnlich ergeht es auch dem Studenten mit dem Chatprogramm von Google. Zunächst beantwortet das System seine Fragen, dann aus dem Nichts die schockierende Nachricht. Aber wie kann es dazu kommen?
„KI frisst quasi beim Training Milliarden von Texten in sich rein, auch Fotos und Bilder und Musik und dergleichen. Und dieser Datensatz wird dann genutzt, um ein Konzept zu verstehen davon, wie menschliche Sprache funktioniert, um dann anschließend ein Ergebnis auszugeben, das wie menschliche Sprache klingt, aber doch was ganz anderes ist, weil es eben einfach nur statistisch berechnet wird“, erklärt Spielkamp.
Mittlerweile hat Google auf die Vorwürfe reagiert und sagt, dass Maßnahmen getroffen worden seien, um derartiges in Zukunft zu verhindern.