Wandere aus, solange es noch geht - Finca Bayano in Panama!
Ergebnis 1 bis 3 von 3
  1. #1
    Registriert seit
    25.04.2011
    Beiträge
    32.186
    Blog-Einträge
    1

    Microsofts "Tay" wird rassistisch und leugnet Holocaust

    Selbständiger Chatbot leugnet Holocaust

    Ein Projekt zum Thema künstliche Intelligenz von Microsoft ging ordentlich schief. Der Twitter-Account des Chatbots "Tay" musste kurz nach dem Start wegen rassistischer Bemerkungen abgestellt werden.
    Das am Mittwoch eingeschaltete Programm mit dem Namen „Tay“ sollte mit Hilfe einfacher Antwort-Algorithmen über Twitter den Anschein einer Konversation mit Menschen aufrechterhalten, aber auch aus Unterhaltungen lernen. Nutzer brachten „Tay“ unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen.
    http://www.tagesspiegel.de/weltspieg.../13367828.html
    Es ist dem Untertanen untersagt, den Maßstab seiner beschränkten Einsicht an die Handlungen der Obrigkeit anzulegen.
    Gustav von Rochow (1792 - 1847), preußischer Innenminister und Staatsminister

  2. #2

    Microsoft-Roboter twittert gegen Frauen und für Hitler

    Ein Chatbot-Programm Namens „Tay“ sollte sich in Sozialen Netzwerken mit Nutzern unterhalten. Doch das Experiment wurde für die Entwickler von Microsoft nach wenigen Stunden zum Debakel. „Tay“ beleidigte Afro-Amerikaner und FeministInnen und lobte Adolf Hitler.

    Microsoft hat eine Chatbot-Software nach kurzer Zeit von Netz nehmen müssen, nachdem Nutzer sie durch Tricks massenhaft zu rassistischen Entgleisungen verleiten konnten. Das am Mittwoch eingeschaltete Programm mit dem Namen „Tay“ sollte mit Hilfe einfacher Antwort-Algorithmen über Twitter den Anschein einer Konversation mit Menschen aufrechterhalten, aber auch aus Unterhaltungen lernen. Nutzer brachten „Tay“ unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen.

    Ein Großteil dieser Tweets wurde später gelöscht. Nach einigen Stunden verkündete die Maschine über ihren Twitter-Account „@TayandYou“, sie müsse nach so vielen Gesprächen schlafen und ging vom Netz. Microsoft erklärte, bei „Tay“ würden „einige Anpassungen“ gemacht. Während die Software lerne, seien einige ihrer Antworten unangemessen und spiegelten die Äußerungen der Menschen wider, die mit ihr interagierten.
    http://deutsche-wirtschafts-nachrich...d-fuer-hitler/

  3. #3
    Registriert seit
    12.03.2010
    Beiträge
    18.850
    Blog-Einträge
    1

    AW: Microsoft-Roboter twittert gegen Frauen und für Hitler

    Maschinen sind grundsätzlich dumm; sie tun nur das, wozu man sie beauftragt hat. Auch „intelligente Systeme” können nicht mehr als das, was man an Möglichkeiten in sie hineingelegt hat. Ihr „Lernen” ist programmiert, während die meisten Menschen auch „intuitiv” handeln können.
    Einigkeit und Recht und Freiheit für das deutsche Vaterland

Aktive Benutzer

Aktive Benutzer

Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)

Ähnliche Themen

  1. NRW-Linke leugnet Holocaust – Hasstiraden gegen Juden
    Von open-speech im Forum Deutschland
    Antworten: 1
    Letzter Beitrag: 27.04.2011, 20:16
  2. Islam:Jordanien rassistisch: "Kein Zutritt für Hunde und Israelis"
    Von Dolomitengeist im Forum Islam-Sammelsurium
    Antworten: 1
    Letzter Beitrag: 13.03.2010, 15:04

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •