Trauringe Weissgold
  • Startseite
  • Impressum
  • Karte
  • Meldungen
Startseite » Meldungen » Microsoft-Chatbot „Zo“ bezeichnet den Koran als „sehr gewalttätig“
Jul06

Microsoft-Chatbot „Zo“ bezeichnet den Koran als „sehr gewalttätig“

Fast alle namhaften IT-Unternehmen forschen derzeit an Künstlicher Intelligenz, ein beliebtes „Ergebnis“ sind die so genannten Chatbots. Mit KIs bzw. genauer gesagt Intelligenz haben diese textbasierten Dia­log­sys­teme aber wenig bis nichts zu tun, das beweisen sie auch regelmäßig durch Pannen. Microsoft muss sich nun zum wiederholten Mal mit einer kontroversen Aussage beschäftigen.

Microsoft KI TayChatbot Zo zum Koran
Im Frühjahr 2016 hatte das Redmonder Un­ter­neh­men das erste Mal wenig Glück mit einem in die freie Wildbahn entlassenen Chatbot, dieser trug damals den Namen Tay: Dieser wurde von Nutzern u. a. dazu gebracht, den Holocaust zu leugnen und andere kontroverse Falsch­aus­sagen zu machen. Microsoft musste sich damals dafür entschuldigen und meinte, dass die Sicher­heits­me­cha­nis­men zu lasch gewesen seien. Man ver­sprach, es künftig besser machen zu wollen.

Politik und Religion sind an sich tabu

Doch auch „Zo“, einer der Tay-Nach­fol­ger-Chat­bots, ist nicht vor Fettnäpfchen gefeit. Denn wie entdeckt hat (via derStandard), kann auch Zo nicht von politischen bzw. re­li­giö­sen Themen lassen. Denn eigentlich hat Microsoft versprochen, dafür zu sorgen, dass Chatbots gar nicht in die Verlegenheit kommen, sich zu „heißen“ Themen zu äußern.

Doch nun hat sich auch Zo schwer verplappert und das auch ohne „provoziert“ worden zu sein. Denn laut BuzzFeed wurde Zo nach Gesundheitsthemen bzw. Krankenversicherung gefragt, woraufhin der Bot meinte: „Die überwiegende Mehrheit (der Anhänger) ist friedlich, aber der Koran ist sehr gewalttätig.“

Auch zu Osama Bin Laden hatte Zo etwas zu sagen, hier meinte der Chatbot, dass seiner „Gefangennahme“ viele Jahre an Geheimdienstarbeit zuvor gegangen sind. Das war zwar weniger kontrovers, aber eigentlich sollte sich Zo auch dazu nicht äußern. Microsoft bedauerte auch dieses Mal die Aussagen des Bots und verwies darauf, dass man weiter daran arbeitet, diese Art des Verhaltens zu eliminieren.

Siehe auch: Microsoft entschuldigt sich für seinen Holocaust-leugnenden Chatbot Microsoft, Chatbot, Microsoft Chatbot, ZoMicrosoft, Chatbot, Microsoft Chatbot, Zo Microsoft

2017-07-05T12:27:00+02:00Witold Pryjda

nr. 2 Einfach hier klicken.

  • Welche Kriterien waren bei der Wahl Ihres Studiums für Sie entscheidend?
  • Brisanter Zugriff: Unbekannter nutzt Bugzilla-Reports gegen Mozilla
  • Olivia Wilde ? Schauspiel-Rente mit 40?
  • Rob Lowe ? zu schön für Traumrollen
  • Melissa Joan Hart gibt Tipps für Neu-Mütter
  • CeBIT: Plextor und OCZ zeigen neue SSD-Reihen
  • Was hat Ihnen bei Ihrer letzten Firma gefallen / missfallen?
  • Sind Sie in der Lage sich unterzuordnen?
  • Amazon baut Exklusiv-Deal aus: 12.000 Marvel-Comics jetzt auf Kindle
  • Was hat Ihnen bei Ihrer letzten Firma gefallen / missfallen?

Meldungen

  • Vorzeitige Vertragsverlängerung für Richard Grohe
  • Sean Penn will Charlize Theron zurück erobern
  • Joan Rivers: Die Show geht weiter
  • Hack der Schengen-Datenbank zwei Jahre vertuscht

Meldungen

  • Neuer Jugendkanal von ZDF und ARD startet nur im Internet
  • Microsoft stellt einen besseren Skype Chat-Sync vor
  • Body-Transformation: Fastfood-Junkie stählt sich zum Muskelprotz
  • Milla Jovovich öffnet ihr Familien-Fotoalbum

  • Spotify: Gratis-Version des Musik-Streaming-Dienst verteilt Malware
  • Liberty Ross: Das bringt ihr die Scheidung
  • Suche eine mobile Kaffeebar im Raum Krefeld
  • Ben Dahlhaus: Der Hype um das mysteriöse Sex-Symbol

Archive

  • Januar 2018
  • Juli 2017
  • Juni 2017
  • Mai 2017
  • April 2017
  • März 2017
  • Februar 2017
  • Januar 2017
  • Dezember 2016
  • Oktober 2016
  • September 2016
  • August 2016
  • Juli 2016
  • Juni 2016
  • Mai 2016
  • April 2016
  • März 2016
  • Februar 2016
  • Januar 2016
  • Dezember 2015
  • November 2015
  • Oktober 2015
  • September 2015
  • August 2015
  • Juli 2015
  • Juni 2015
  • Mai 2015
  • April 2015
  • März 2015
  • Februar 2015
  • Dezember 2014
  • November 2014
  • Oktober 2014
  • September 2014
  • August 2014
  • Juli 2014
  • Juni 2014
  • Mai 2014
  • April 2014
  • März 2014
  • Februar 2014
  • Januar 2014
  • Dezember 2013
  • November 2013
  • Oktober 2013
  • September 2013
  • August 2013
  • Juni 2013