Trauringe Weissgold
  • Startseite
  • Impressum
  • Karte
  • Meldungen
Startseite » Meldungen » Microsoft-Chatbot „Zo“ bezeichnet den Koran als „sehr gewalttätig“
Jul06

Microsoft-Chatbot „Zo“ bezeichnet den Koran als „sehr gewalttätig“

Fast alle namhaften IT-Unternehmen forschen derzeit an Künstlicher Intelligenz, ein beliebtes „Ergebnis“ sind die so genannten Chatbots. Mit KIs bzw. genauer gesagt Intelligenz haben diese textbasierten Dia­log­sys­teme aber wenig bis nichts zu tun, das beweisen sie auch regelmäßig durch Pannen. Microsoft muss sich nun zum wiederholten Mal mit einer kontroversen Aussage beschäftigen.

Microsoft KI TayChatbot Zo zum Koran
Im Frühjahr 2016 hatte das Redmonder Un­ter­neh­men das erste Mal wenig Glück mit einem in die freie Wildbahn entlassenen Chatbot, dieser trug damals den Namen Tay: Dieser wurde von Nutzern u. a. dazu gebracht, den Holocaust zu leugnen und andere kontroverse Falsch­aus­sagen zu machen. Microsoft musste sich damals dafür entschuldigen und meinte, dass die Sicher­heits­me­cha­nis­men zu lasch gewesen seien. Man ver­sprach, es künftig besser machen zu wollen.

Politik und Religion sind an sich tabu

Doch auch „Zo“, einer der Tay-Nach­fol­ger-Chat­bots, ist nicht vor Fettnäpfchen gefeit. Denn wie entdeckt hat (via derStandard), kann auch Zo nicht von politischen bzw. re­li­giö­sen Themen lassen. Denn eigentlich hat Microsoft versprochen, dafür zu sorgen, dass Chatbots gar nicht in die Verlegenheit kommen, sich zu „heißen“ Themen zu äußern.

Doch nun hat sich auch Zo schwer verplappert und das auch ohne „provoziert“ worden zu sein. Denn laut BuzzFeed wurde Zo nach Gesundheitsthemen bzw. Krankenversicherung gefragt, woraufhin der Bot meinte: „Die überwiegende Mehrheit (der Anhänger) ist friedlich, aber der Koran ist sehr gewalttätig.“

Auch zu Osama Bin Laden hatte Zo etwas zu sagen, hier meinte der Chatbot, dass seiner „Gefangennahme“ viele Jahre an Geheimdienstarbeit zuvor gegangen sind. Das war zwar weniger kontrovers, aber eigentlich sollte sich Zo auch dazu nicht äußern. Microsoft bedauerte auch dieses Mal die Aussagen des Bots und verwies darauf, dass man weiter daran arbeitet, diese Art des Verhaltens zu eliminieren.

Siehe auch: Microsoft entschuldigt sich für seinen Holocaust-leugnenden Chatbot Microsoft, Chatbot, Microsoft Chatbot, ZoMicrosoft, Chatbot, Microsoft Chatbot, Zo Microsoft

2017-07-05T12:27:00+02:00Witold Pryjda

nr. 2 Einfach hier klicken.

  • Deutsche Küche: Echte Hausmannskost auf vegetarisch
  • Vorstellungsgespräch: Halten Sie Zeitpläne immer ein?
  • Jennifer Lawrence ? Freundschaft mit dem Ex?
  • Aktualisierte Hansgrohe Apps und Facebook-Gewinnspiel
  • Ehlebracht: Zweite Angebotsphase läuft
  • Geschäftsjahr 2014
  • Hateful Eight und The Revenant: Super-GAU in Sachen Screener-Leaks
  • Google Chrome bereitet sich auf Umstellung auf Material Design vor
  • Grillen: Geschlechterkrieg am Rost ? wer grillt besser?
  • Body-Transformation: Fastfood-Junkie stählt sich zum Muskelprotz

Meldungen

  • Artistic Director: Boss holt sich Michelle Obamas Lieblingsdesigner
  • Nachwuchs eingetroffen!
  • Stilles Örtchen? Von wegen!
  • Frustration nach Traugespräch

Meldungen

  • Lustgewinn: Mehr Spaß durch Porno, das geht prima
  • „Natürliches“ Aroma: Vanille stammt aus wenig appetitlichen Quellen
  • Neues Metallica-Album soll im Sommer fertig werden
  • Lücken bei Torrents Time: Vorsicht vor Browser-Plugin für Streaming

  • Gegenwart einer fast vergessenen Tradition
  • Interaktiver Geschäftsbericht 2013
  • Facebook skizziert Zehnjahresplan
  • Spotify: Gratis-Version des Musik-Streaming-Dienst verteilt Malware

Archive

  • Januar 2018
  • Juli 2017
  • Juni 2017
  • Mai 2017
  • April 2017
  • März 2017
  • Februar 2017
  • Januar 2017
  • Dezember 2016
  • Oktober 2016
  • September 2016
  • August 2016
  • Juli 2016
  • Juni 2016
  • Mai 2016
  • April 2016
  • März 2016
  • Februar 2016
  • Januar 2016
  • Dezember 2015
  • November 2015
  • Oktober 2015
  • September 2015
  • August 2015
  • Juli 2015
  • Juni 2015
  • Mai 2015
  • April 2015
  • März 2015
  • Februar 2015
  • Dezember 2014
  • November 2014
  • Oktober 2014
  • September 2014
  • August 2014
  • Juli 2014
  • Juni 2014
  • Mai 2014
  • April 2014
  • März 2014
  • Februar 2014
  • Januar 2014
  • Dezember 2013
  • November 2013
  • Oktober 2013
  • September 2013
  • August 2013
  • Juni 2013