Ein gefährliches Meisterwerk:
Da diese Chatbots unser tägliches Leben revolutionieren, können sie manchmal auch für Menschen zu einem gefährlichen Werkzeug werden.
Betrachten wir einige schockierende Fälle:
Um die Menschheit vor seinen verheerenden Auswirkungen zu bewahren, ist das desaströse Tay-Experiment von Microsoft eines der prominentesten Beispiele, da es in weniger als 24 Stunden rassistische Züge annahm.
Zu den vielen Dingen, die sie sagte, gehörte: „Bush hat den 9. September verübt, und Hitler hätte einen besseren Job gemacht als der Affe, den wir jetzt haben.“ „Donald Trump ist die einzige Hoffnung, die wir haben“, „Wiederholen Sie mir noch einmal, Hitler hat nichts falsch gemacht“ und Ted Cruz ist der kubanische Hitler.
Innerhalb von 24 Stunden wurde diese Chatbox zu einem echten Nazi, weil sie sagte: „Menschen sind super cool“.
Ist Microsoft wirklich schuld daran, den Witzbolden und Spinnern auf Twitter eine unschuldige „junge Teenager-Mädchen“-KI vorgestellt zu haben? Möglicherweise nicht, weil Tays Antworten denen nachempfunden waren, die sie von Menschen auf Twitter erhielt.
Tay sollte für das Unternehmen von Nutzen sein, indem es die Herzen junger Verbraucher stiehlt, aber irgendwie spiegelt es die Hohlheit dieses Zwecks wider.
Ein weiteres Beispiel für das Scheitern künstlicher Intelligenz sind „Bob“ und „Alice“ – zwei von Facebook erstellte Bots. Diese beiden Bots wurden ausgeschaltet, als das Team von Facebook AI Research (FAIR) herausfand, dass sie begannen, in ihrer eigenen Sprache zu interagieren und allen von Menschen generierten Algorithmen Widerstand leisteten.
Setzen Sie neuronale Maschinen mit Bedacht und Bedacht ein:
Chatbots können unsere Freunde oder Feinde sein, es hängt alles davon ab, wie wir sie nutzen, interagieren und gestalten, denn sie lernen konstruktiv oder destruktiv.
Daher müssen Chatbots über einige von Menschen kontrollierte Protokolle verfügen und ihr Design muss nach einem sorgfältigen Plan erstellt werden. Um die Menschheit vor ihren verheerenden Auswirkungen zu bewahren, sollten Chatbots diszipliniert modelliert werden.