Trauringe Weissgold
  • Startseite
  • Impressum
  • Karte
  • Meldungen
Startseite » Meldungen » Microsoft-Chatbot „Zo“ bezeichnet den Koran als „sehr gewalttätig“
Jul06

Microsoft-Chatbot „Zo“ bezeichnet den Koran als „sehr gewalttätig“

Fast alle namhaften IT-Unternehmen forschen derzeit an Künstlicher Intelligenz, ein beliebtes „Ergebnis“ sind die so genannten Chatbots. Mit KIs bzw. genauer gesagt Intelligenz haben diese textbasierten Dia­log­sys­teme aber wenig bis nichts zu tun, das beweisen sie auch regelmäßig durch Pannen. Microsoft muss sich nun zum wiederholten Mal mit einer kontroversen Aussage beschäftigen.

Microsoft KI TayChatbot Zo zum Koran
Im Frühjahr 2016 hatte das Redmonder Un­ter­neh­men das erste Mal wenig Glück mit einem in die freie Wildbahn entlassenen Chatbot, dieser trug damals den Namen Tay: Dieser wurde von Nutzern u. a. dazu gebracht, den Holocaust zu leugnen und andere kontroverse Falsch­aus­sagen zu machen. Microsoft musste sich damals dafür entschuldigen und meinte, dass die Sicher­heits­me­cha­nis­men zu lasch gewesen seien. Man ver­sprach, es künftig besser machen zu wollen.

Politik und Religion sind an sich tabu

Doch auch „Zo“, einer der Tay-Nach­fol­ger-Chat­bots, ist nicht vor Fettnäpfchen gefeit. Denn wie entdeckt hat (via derStandard), kann auch Zo nicht von politischen bzw. re­li­giö­sen Themen lassen. Denn eigentlich hat Microsoft versprochen, dafür zu sorgen, dass Chatbots gar nicht in die Verlegenheit kommen, sich zu „heißen“ Themen zu äußern.

Doch nun hat sich auch Zo schwer verplappert und das auch ohne „provoziert“ worden zu sein. Denn laut BuzzFeed wurde Zo nach Gesundheitsthemen bzw. Krankenversicherung gefragt, woraufhin der Bot meinte: „Die überwiegende Mehrheit (der Anhänger) ist friedlich, aber der Koran ist sehr gewalttätig.“

Auch zu Osama Bin Laden hatte Zo etwas zu sagen, hier meinte der Chatbot, dass seiner „Gefangennahme“ viele Jahre an Geheimdienstarbeit zuvor gegangen sind. Das war zwar weniger kontrovers, aber eigentlich sollte sich Zo auch dazu nicht äußern. Microsoft bedauerte auch dieses Mal die Aussagen des Bots und verwies darauf, dass man weiter daran arbeitet, diese Art des Verhaltens zu eliminieren.

Siehe auch: Microsoft entschuldigt sich für seinen Holocaust-leugnenden Chatbot Microsoft, Chatbot, Microsoft Chatbot, ZoMicrosoft, Chatbot, Microsoft Chatbot, Zo Microsoft

2017-07-05T12:27:00+02:00Witold Pryjda

nr. 2 Einfach hier klicken.

  • Madonna und Rocco: Erstes Treffen nach dem Streit
  • Kate Walsh ? sexy im Bikini ? Liebesurlaub
  • Vorstellungsgespräch: Halten Sie Zeitpläne immer ein?
  • Jennifer Lopez ? schnappt sie sich jetzt Ben Affleck?
  • Interior Lifestyle Tokyo mit rund 16 % mehr Ausstellern
  • Mehr Surfspeed & Datenvolumen: Telekom bessert LTE-Tarife nach
  • Tiger Woods weist sich selbst in Entzugsklinik ein
  • Stilles Örtchen? Von wegen!
  • Jamie Dornan: „Christian Grey“ zeigt sein Gesicht
  • Facebook verschenkt Werbe-Budgets für Gegenpropaganda

Meldungen

  • Neil Patrick Harris im Familien-Urlaub
  • Britney Spears präsentiert sich wieder in Topform
  • Worauf man bei einer Hochzeit in Osteuropa achten sollte!
  • Rihanna & Lewis Hamilton – Sommerliebe mit Zukunft?

Meldungen

  • USA wollen Flugverkehr nach Angriffen gegen Hacker absichern
  • Axor gewinnt Wallpaper* Design Award zum zweiten Mal in Folge
  • Google Assistant & Home: Cortana bekommt agressive Konkurrenz
  • Rundfunkbeitrag sinkt, doch dann kommt es ab 2021 richtig dicke

  • GfK weist für Mai stabilen Konsumklimaindex aus
  • Hansgrohe bringt Kochkunst zum Leuchten
  • Video-Kampagne eines Top-Arbeitgebers
  • Google bittet um Ausnahme in Werbeblockern

Archive

  • Januar 2018
  • Juli 2017
  • Juni 2017
  • Mai 2017
  • April 2017
  • März 2017
  • Februar 2017
  • Januar 2017
  • Dezember 2016
  • Oktober 2016
  • September 2016
  • August 2016
  • Juli 2016
  • Juni 2016
  • Mai 2016
  • April 2016
  • März 2016
  • Februar 2016
  • Januar 2016
  • Dezember 2015
  • November 2015
  • Oktober 2015
  • September 2015
  • August 2015
  • Juli 2015
  • Juni 2015
  • Mai 2015
  • April 2015
  • März 2015
  • Februar 2015
  • Dezember 2014
  • November 2014
  • Oktober 2014
  • September 2014
  • August 2014
  • Juli 2014
  • Juni 2014
  • Mai 2014
  • April 2014
  • März 2014
  • Februar 2014
  • Januar 2014
  • Dezember 2013
  • November 2013
  • Oktober 2013
  • September 2013
  • August 2013
  • Juni 2013