Skip to main content
SEO-News

Chatbot Tay: Microsoft bittet um Entschuldigung für rassistische Tweets

Christian Kunz
27. März 2016
Zuletzt aktualisiert: 27. März 2016

Künstliche IntelligenzIm Zusammenhang mit rassistischen Tweets seines Chatbots Tay bittet Microsoft offiziell um Entschuldigung. Offenbar waren Tays Schutzmechanismen gegen das Lernen entsprechender Muster nicht gut genug gewesen.

 

Erst am MIttwoch dieser Woche hatte Microsoft seinen Chatbot Tay online genommen. Ziel des Projekts, das als Gemeinschaftsarbeit der Enwticklungsteams von Microsoft und Bing entstand, ist die Erforschung weltweiter Konversationsmuster. Im Fokus stehen vor allem US-Amerikaner im Alter zwischen 18 und 24 Jahren. Tay ist in der Lage, mit Hilfe Künstlicher Intelligenz Konversationen auf verschiedenen sozialen Plattformen im Netz zu führen, unter anderem auf Twitter, Kik und GroupMe.

Microsoft Tay auf Twitter

 

Tay ist in der Lage, auf verschiedene Arten von Anfragen zu reagieren. Man kann sie zum Beispiel auffordern, einen Witz zu erzählen, man kann ihr ein Foto mit der Bitte um einen Kommentar senden oder sich das aktuelle Horoskop durchgeben lassen. Dabei sollen sich die Konversationen mit der Zeit immer mehr an die jeweilige Person anpassen, denn Tay ist lernfähig.

 

Probleme mit rassistischen Konversationen

Eines hatten die Entwickler offenbar jedoch vergessen: Sobald Tay live war, wurde sie schnell mit rassistischen Anfragen konfrontiert. Und anstatt dies zu erkennen und solche Konversationen entsprechend zu filtern, ging Tay darauf ein und gab entsprechende Antworten wie diese:

Tay rassistischer Tweet

 

Microsoft hat inzwischen reagiert und Tay bis auf weiteres stillgelegt. Tay werde erst wieder online gehen, wenn entsprechende Inhalte, die gegen eigene Prinzipien und Werte verstießen, besser erkannt werden können. In einem offiziellen Blogpost von Microsoft heißt es:

"As many of you know by now, on Wednesday we launched a chatbot called Tay. We are deeply sorry for the unintended offensive and hurtful tweets from Tay, which do not represent who we are or what we stand for, nor how we designed Tay. Tay is now offline and we’ll look to bring Tay back only when we are confident we can better anticipate malicious intent that conflicts with our principles and values."

Dennoch kann man aus diesem Fauxpas viel über die "zwischenmenschliche" Konversation lernen - zum Beispiel, dass "Godwin's Gesetz" tatsächlich in vielen Fällen zutrifft. Dieses besagt, dass, je länger eine Online-Konversation andauert, die Wahrscheinlichkeit für Nazi- oder Hitler-Vergleiche steigt.

Bleibt zu hoffen, dass Microsoft die Probleme schnell in den Griff bekommen und Tay wieder online stellen wird, denn trotz aller Probleme handelt es sich dabei um ein faszinierendes Projekt, das zeigt, wozu Künstliche Intelligenz heute bereits in der Lage ist.

 

Titelbild © AGPhotography - Fotolia.com

 

Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


 

 

 

Verwandte Beiträge

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen Digitaleffects

Online Solutions Group

Farbentour

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar