SEO-News

Künstliche IntelligenzIm Zusammenhang mit rassistischen Tweets seines Chatbots Tay bittet Microsoft offiziell um Entschuldigung. Offenbar waren Tays Schutzmechanismen gegen das Lernen entsprechender Muster nicht gut genug gewesen.

 

Erst am MIttwoch dieser Woche hatte Microsoft seinen Chatbot Tay online genommen. Ziel des Projekts, das als Gemeinschaftsarbeit der Enwticklungsteams von Microsoft und Bing entstand, ist die Erforschung weltweiter Konversationsmuster. Im Fokus stehen vor allem US-Amerikaner im Alter zwischen 18 und 24 Jahren. Tay ist in der Lage, mit Hilfe Künstlicher Intelligenz Konversationen auf verschiedenen sozialen Plattformen im Netz zu führen, unter anderem auf Twitter, Kik und GroupMe.

Microsoft Tay auf Twitter

 

Tay ist in der Lage, auf verschiedene Arten von Anfragen zu reagieren. Man kann sie zum Beispiel auffordern, einen Witz zu erzählen, man kann ihr ein Foto mit der Bitte um einen Kommentar senden oder sich das aktuelle Horoskop durchgeben lassen. Dabei sollen sich die Konversationen mit der Zeit immer mehr an die jeweilige Person anpassen, denn Tay ist lernfähig.

 

Probleme mit rassistischen Konversationen

Eines hatten die Entwickler offenbar jedoch vergessen: Sobald Tay live war, wurde sie schnell mit rassistischen Anfragen konfrontiert. Und anstatt dies zu erkennen und solche Konversationen entsprechend zu filtern, ging Tay darauf ein und gab entsprechende Antworten wie diese:

Tay rassistischer Tweet

 

Microsoft hat inzwischen reagiert und Tay bis auf weiteres stillgelegt. Tay werde erst wieder online gehen, wenn entsprechende Inhalte, die gegen eigene Prinzipien und Werte verstießen, besser erkannt werden können. In einem offiziellen Blogpost von Microsoft heißt es:

"As many of you know by now, on Wednesday we launched a chatbot called Tay. We are deeply sorry for the unintended offensive and hurtful tweets from Tay, which do not represent who we are or what we stand for, nor how we designed Tay. Tay is now offline and we’ll look to bring Tay back only when we are confident we can better anticipate malicious intent that conflicts with our principles and values."

Dennoch kann man aus diesem Fauxpas viel über die "zwischenmenschliche" Konversation lernen - zum Beispiel, dass "Godwin's Gesetz" tatsächlich in vielen Fällen zutrifft. Dieses besagt, dass, je länger eine Online-Konversation andauert, die Wahrscheinlichkeit für Nazi- oder Hitler-Vergleiche steigt.

Bleibt zu hoffen, dass Microsoft die Probleme schnell in den Griff bekommen und Tay wieder online stellen wird, denn trotz aller Probleme handelt es sich dabei um ein faszinierendes Projekt, das zeigt, wozu Künstliche Intelligenz heute bereits in der Lage ist.

 

Titelbild © AGPhotography - Fotolia.com

 


Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


Anzeige

SEO-Vergleich


Verwandte Beiträge

 

 

 

Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen

sedo

SEO Agentur aus Darmstadt

SEO-Vergleich

Online Solutions Group




Sprecher auf

Onsite-Optimierung

Onsite-Optimierung

 

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

SEO selber machen

SEO selber machen

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO im Ohr, der Podcast von SEO Südwest: aktuell Folge

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px