Trauringe Weissgold
  • Startseite
  • Impressum
  • Karte
  • Meldungen
Startseite » Meldungen » Microsoft-Chatbot „Zo“ bezeichnet den Koran als „sehr gewalttätig“
Jul06

Microsoft-Chatbot „Zo“ bezeichnet den Koran als „sehr gewalttätig“

Fast alle namhaften IT-Unternehmen forschen derzeit an Künstlicher Intelligenz, ein beliebtes „Ergebnis“ sind die so genannten Chatbots. Mit KIs bzw. genauer gesagt Intelligenz haben diese textbasierten Dia­log­sys­teme aber wenig bis nichts zu tun, das beweisen sie auch regelmäßig durch Pannen. Microsoft muss sich nun zum wiederholten Mal mit einer kontroversen Aussage beschäftigen.

Microsoft KI TayChatbot Zo zum Koran
Im Frühjahr 2016 hatte das Redmonder Un­ter­neh­men das erste Mal wenig Glück mit einem in die freie Wildbahn entlassenen Chatbot, dieser trug damals den Namen Tay: Dieser wurde von Nutzern u. a. dazu gebracht, den Holocaust zu leugnen und andere kontroverse Falsch­aus­sagen zu machen. Microsoft musste sich damals dafür entschuldigen und meinte, dass die Sicher­heits­me­cha­nis­men zu lasch gewesen seien. Man ver­sprach, es künftig besser machen zu wollen.

Politik und Religion sind an sich tabu

Doch auch „Zo“, einer der Tay-Nach­fol­ger-Chat­bots, ist nicht vor Fettnäpfchen gefeit. Denn wie entdeckt hat (via derStandard), kann auch Zo nicht von politischen bzw. re­li­giö­sen Themen lassen. Denn eigentlich hat Microsoft versprochen, dafür zu sorgen, dass Chatbots gar nicht in die Verlegenheit kommen, sich zu „heißen“ Themen zu äußern.

Doch nun hat sich auch Zo schwer verplappert und das auch ohne „provoziert“ worden zu sein. Denn laut BuzzFeed wurde Zo nach Gesundheitsthemen bzw. Krankenversicherung gefragt, woraufhin der Bot meinte: „Die überwiegende Mehrheit (der Anhänger) ist friedlich, aber der Koran ist sehr gewalttätig.“

Auch zu Osama Bin Laden hatte Zo etwas zu sagen, hier meinte der Chatbot, dass seiner „Gefangennahme“ viele Jahre an Geheimdienstarbeit zuvor gegangen sind. Das war zwar weniger kontrovers, aber eigentlich sollte sich Zo auch dazu nicht äußern. Microsoft bedauerte auch dieses Mal die Aussagen des Bots und verwies darauf, dass man weiter daran arbeitet, diese Art des Verhaltens zu eliminieren.

Siehe auch: Microsoft entschuldigt sich für seinen Holocaust-leugnenden Chatbot Microsoft, Chatbot, Microsoft Chatbot, ZoMicrosoft, Chatbot, Microsoft Chatbot, Zo Microsoft

2017-07-05T12:27:00+02:00Witold Pryjda

nr. 2 Einfach hier klicken.

  • Social Media- Facebook, Twitter, Instagram bei der Hochzeit?
  • Erster Wassersommelier Europas kommt in die Hansgrohe Aquademie
  • Michael Weatherly verlässt ?Navy CIS?
  • Jennifer Lawrence ? große Verlobungs-Story ? was ist dran?
  • Internet-Ballons von Google: Landwirt verliert Ernte und reicht Klage ein
  • Kim Kardashian ? Selfie-Buch floppt
  • Heidi Klum: Erster Blick auf ihr sexy Halloween-Kostüm
  • Kanye West: Fans reißen sich um seine Mode
  • Ricky Martin verkauft schickes New Yorker Apartment
  • Planung ist alles

Meldungen

  • Interaktiver Geschäftsbericht 2013
  • Pflichten eines Architekten
  • Mit Gmail Rechnungen begleichen: Google plant E-Mail-Bezahldienst
  • George Clooney ? dritte Hochzeit in England

Meldungen

  • Juliette Lewis (41) zeigt uns stolz ihre Muckis
  • Deutsche hängen am liebsten vor der Glotze
  • Jane Lynch: ‚Glee‘ hat das gewisse Etwas
  • Doutzen Kroes zeigt ihre süße Familie

  • US-Anwaltsvereinigung rät zu Zurückhaltung bei Piraterie-Klagen
  • Lindsay Lohan ? peinliche Instagram-Panne!
  • Hochzeitstorte München
  • Verlierer des Tages

Archive

  • Januar 2018
  • Juli 2017
  • Juni 2017
  • Mai 2017
  • April 2017
  • März 2017
  • Februar 2017
  • Januar 2017
  • Dezember 2016
  • Oktober 2016
  • September 2016
  • August 2016
  • Juli 2016
  • Juni 2016
  • Mai 2016
  • April 2016
  • März 2016
  • Februar 2016
  • Januar 2016
  • Dezember 2015
  • November 2015
  • Oktober 2015
  • September 2015
  • August 2015
  • Juli 2015
  • Juni 2015
  • Mai 2015
  • April 2015
  • März 2015
  • Februar 2015
  • Dezember 2014
  • November 2014
  • Oktober 2014
  • September 2014
  • August 2014
  • Juli 2014
  • Juni 2014
  • Mai 2014
  • April 2014
  • März 2014
  • Februar 2014
  • Januar 2014
  • Dezember 2013
  • November 2013
  • Oktober 2013
  • September 2013
  • August 2013
  • Juni 2013