Trauringe Weissgold
  • Startseite
  • Impressum
  • Karte
  • Meldungen
Startseite » Meldungen » Microsoft-Chatbot „Zo“ bezeichnet den Koran als „sehr gewalttätig“
Jul06

Microsoft-Chatbot „Zo“ bezeichnet den Koran als „sehr gewalttätig“

Fast alle namhaften IT-Unternehmen forschen derzeit an Künstlicher Intelligenz, ein beliebtes „Ergebnis“ sind die so genannten Chatbots. Mit KIs bzw. genauer gesagt Intelligenz haben diese textbasierten Dia­log­sys­teme aber wenig bis nichts zu tun, das beweisen sie auch regelmäßig durch Pannen. Microsoft muss sich nun zum wiederholten Mal mit einer kontroversen Aussage beschäftigen.

Microsoft KI TayChatbot Zo zum Koran
Im Frühjahr 2016 hatte das Redmonder Un­ter­neh­men das erste Mal wenig Glück mit einem in die freie Wildbahn entlassenen Chatbot, dieser trug damals den Namen Tay: Dieser wurde von Nutzern u. a. dazu gebracht, den Holocaust zu leugnen und andere kontroverse Falsch­aus­sagen zu machen. Microsoft musste sich damals dafür entschuldigen und meinte, dass die Sicher­heits­me­cha­nis­men zu lasch gewesen seien. Man ver­sprach, es künftig besser machen zu wollen.

Politik und Religion sind an sich tabu

Doch auch „Zo“, einer der Tay-Nach­fol­ger-Chat­bots, ist nicht vor Fettnäpfchen gefeit. Denn wie entdeckt hat (via derStandard), kann auch Zo nicht von politischen bzw. re­li­giö­sen Themen lassen. Denn eigentlich hat Microsoft versprochen, dafür zu sorgen, dass Chatbots gar nicht in die Verlegenheit kommen, sich zu „heißen“ Themen zu äußern.

Doch nun hat sich auch Zo schwer verplappert und das auch ohne „provoziert“ worden zu sein. Denn laut BuzzFeed wurde Zo nach Gesundheitsthemen bzw. Krankenversicherung gefragt, woraufhin der Bot meinte: „Die überwiegende Mehrheit (der Anhänger) ist friedlich, aber der Koran ist sehr gewalttätig.“

Auch zu Osama Bin Laden hatte Zo etwas zu sagen, hier meinte der Chatbot, dass seiner „Gefangennahme“ viele Jahre an Geheimdienstarbeit zuvor gegangen sind. Das war zwar weniger kontrovers, aber eigentlich sollte sich Zo auch dazu nicht äußern. Microsoft bedauerte auch dieses Mal die Aussagen des Bots und verwies darauf, dass man weiter daran arbeitet, diese Art des Verhaltens zu eliminieren.

Siehe auch: Microsoft entschuldigt sich für seinen Holocaust-leugnenden Chatbot Microsoft, Chatbot, Microsoft Chatbot, ZoMicrosoft, Chatbot, Microsoft Chatbot, Zo Microsoft

2017-07-05T12:27:00+02:00Witold Pryjda

nr. 2 Einfach hier klicken.

  • Spammer bauen Chrome-Extensions zu Adware um
  • Italienische Architekten lernen Hansgrohe kennen
  • Andrew Garfield: Heftige Kritik an seinem ?Ich bin jetzt schwul?-Witz
  • Wassersparrechner 2016 ? mit cleveren Technologien in die Zukunft
  • Bericht: Amazon beliefert deutsche Kunden bald aus Polen
  • CCC: Starbug hat auch den Iris-Scanner des Galaxy S8 geknackt
  • Smart City: The Next Generation
  • Ceka: Roadshow statt Orgatec
  • So geht Wearable: Designerin klont Bezahl-Karte im Fingernagel
  • Kylie Minogue ? so muss ihr Traummann sein

Meldungen

  • Vorstellungsgespräch: Halten Sie Zeitpläne immer ein?
  • Fit mit Kind: So spielen die Kleinsten beim Sport mit
  • Pornhub startet VR-Kanal: hüpfende Brüste in 3D und 360°-Rundumblick
  • Soziales Tamagotchi: Comeback zum 17. Geburtstag

Meldungen

  • „Natürliches“ Aroma: Vanille stammt aus wenig appetitlichen Quellen
  • USA warnt vor Nordkorea-Botnetz und der Hackergruppe Hidden Cobra
  • Schlechter Rat ist teuer
  • Das Korsett ist zurück ? aber muss das sein?

  • OneDrive: Erste Screenshots zeigen neue Funktionen
  • Bertilsson wurde in Ingka-Aufsichtsrat bestellt
  • Toni Garrn eifert Christy Turlington nach
  • Suche eine mobile Kaffeebar im Raum Krefeld

Archive

  • Januar 2018
  • Juli 2017
  • Juni 2017
  • Mai 2017
  • April 2017
  • März 2017
  • Februar 2017
  • Januar 2017
  • Dezember 2016
  • Oktober 2016
  • September 2016
  • August 2016
  • Juli 2016
  • Juni 2016
  • Mai 2016
  • April 2016
  • März 2016
  • Februar 2016
  • Januar 2016
  • Dezember 2015
  • November 2015
  • Oktober 2015
  • September 2015
  • August 2015
  • Juli 2015
  • Juni 2015
  • Mai 2015
  • April 2015
  • März 2015
  • Februar 2015
  • Dezember 2014
  • November 2014
  • Oktober 2014
  • September 2014
  • August 2014
  • Juli 2014
  • Juni 2014
  • Mai 2014
  • April 2014
  • März 2014
  • Februar 2014
  • Januar 2014
  • Dezember 2013
  • November 2013
  • Oktober 2013
  • September 2013
  • August 2013
  • Juni 2013