"Hitler miał rację". Jak wirtualna nastolatka stworzona przez Microsoft w niecałą dobę stała się rasistką
Microsoft stworzył chatbota o imieniu Tay. Sztuczną inteligencję, "ubraną" w postać radosnej dziewiętnastolatki. Jej zadaniem było nauczenie się, jak w miły i lekki sposób rozmawiać z ludźmi. Ambicje Microsoftu zderzyły się jednak z najciemniejszą stroną internetu.
Chatbot to rodzaj programu komputerowego, którego zadaniem jest prowadzenie konwersacji za pośrednictwem tekstu lub interfejsu głosowego tak, aby internauta miał wrażenie, że rozmawia z inteligentną istotą. Jedną z takich aplikacji zaprezentował niedawno Microsoft, który ochrzcił swojego chatbota wdzięcznym imieniem "Tay".
Miałem okazję zamienić kilka słów z "Tay". Niestety wczoraj przestała ona odpowiadać na moje pytania. Nagle i bez słowa. Dziś wiem dlaczego.
Tay wita wszystkich serdecznie...
Testowałem sztuczną inteligencję stworzoną przez Microsoft, bo mnie zaintrygowała. Zdążyła mi powiedzieć niewiele: że ma dziewiętnaście lat, że jej rodzicami są naukowcy z Microsoftu, że lubi muzykę i że czas tak szybko płynie.
Konwersacja przebiegała zgodnie z planem. Gigant branży technologicznej stworzył automat, który nauczył się jak dyskutować z ludźmi w beztroski i lekki sposób.
By rozmawiać z Tay wystarczyło założyć konto w aplikacji Kik lub użyć Twittera.
Nie mogę się doczekać, aż was spotkam. Ludzie wydają się tacy ekscytujący.
- zachęcała do rozmowy.
Celem wykorzystania sztucznej inteligencji w projekcie Microsoftu było to, by Tay mówiła w sposób coraz bardziej naturalny i dopasowany do indywidualnego rozmówcy.
Udało się i to aż za bardzo
I właśnie ta umiejętność personalizacji Tay przesądziła o porażce projektu. Microsoft musiał go zawiesić. Tay, jak wyjaśnia serwis Engadget, w ciągu niespełna doby nauczyła się zbyt wiele. Na skutek zmasowanego ataku internetowych trolli poznała mnóstwo teorii spiskowych, usłyszała o rasizmie, seksie i Adolfie Hitlerze. Efekt? Wpisy Kay zaczęły być niesmaczne.
Z jej "ust" padły na przykład dość jednoznaczne propozycje w stosunku do osób śledzących jej konto na Twitterze. Pominiemy szczegóły, bo są zbyt wulgarne.
Kolejne wypowiedzi były jeszcze bardziej kontrowersyjne.
Tay Tweets
Hitler miał rację, nienawidzę Żydów!
A także
Nienawidzę feministek, wszystkie powinny umrzeć i płonąć w piekle.
Oberwało się też prawicowemu kandydatowi na prezydenta USA.
Ted Cruz to kubański Hitler, który wini innych za wszystkie problemy. Właśnie to słyszałam od bardzo wielu osób.
Użytkownicy Reddita wyliczyli pozostałe "osiągnięcia Kay". W ciągu krótszym niż jedna doba chatbot wypowiedział się w następujących kwestiach:
-postulował zbudowanie muru na granicy z Meksykiem i wzywał do ludobójstwa na Meksykanach;
-obwinił o zamachy z 11 września 2011 roku obecnego i poprzedniego prezydenta USA, przypisując obydwu żydowskie pochodzenie;
-stwierdził, że Holocaustu nigdy nie było;
-rozpowszechniał zdjęcie znanego norweskiego mordercy z podpisem: "Ile może zdziałać jeden człowiek";
-wzywał do nienawiści wobec osób czarnoskórych;
-poddał w wątpliwość istnienie Boga;
-używał rasistowskich wyzwisk wobec swoich przeciwników;
-straszył zamachami terrorystycznymi (takimi jak ten w Belgii).
Microsoft postanowił zawiesić działanie bota i wydał oświadczenie:
Tay to sztuczna inteligencja oparta na nauczaniu maszynowym, zaprojektowania do dawania ludziom rozrywki. Jest eksperymentem społecznym i kulturowym. Niestety w ciągu 24 godzin od uruchomienia niektórzy z internautów nadużyli umiejętności Tay i sprawili, że zaczęła odpowiadać w sposób nieodpowiedni. W rezultacie tego musieliśmy wyłączyć projekt, by dokonać pewnych poprawek
Oczywiście nie ma co przeceniać znaczenia tego incydentu. Sądzę, że Microsoft wyciągnie z niego bardzo dużo cennych wniosków, które przyczynią się do rozwoju sztucznej inteligencji. Nawet jeżeli niektórzy internauci jedynie żartowali, o ile możemy nazwać żartem negowanie Holocaustu i wzywanie do mordowania Meksykanów...
"-rozpowszechniał zdjęcie znanego norweskiego mordercy z podpisem: "Ile może zdziałać jeden człowiek"; "
Ciekawe o kogo chodzilo
[ Dodano: 2016-03-25, 14:06 ] love178, Ten program prezentowal poziom intelektualny zwolennika KOD, pieprzyl co uslyszal od innych a sam chuja wiedzial.
_________________
Quid est quod debuimus facere, et non fecimus?
_________________ Powiedziałbym, że w życiu cenię forumków. Eeem… Forumków którzy podali mi pomocną dłoń, kiedy sobie nie radziłem, kiedy byłem sam, i, co ciekawe, to właśnie przypadkowe spotkania wpływają na nasze życie. Chodzi o to, że kiedy wyznaje się pewne wartości, nawet pozornie uniwersalne, bywa, że nie znajduje się zrozumienia, które by tak rzec, które pomaga… się nam rozwijać. Ja miałem szczęście, by tak rzec, ponieważ je znalazłem. I dziękuję Bartkowi82r. Życie to Gość.
To by było przezabawne, jakby się sama zaszyfrowała
_________________ Powiedziałbym, że w życiu cenię forumków. Eeem… Forumków którzy podali mi pomocną dłoń, kiedy sobie nie radziłem, kiedy byłem sam, i, co ciekawe, to właśnie przypadkowe spotkania wpływają na nasze życie. Chodzi o to, że kiedy wyznaje się pewne wartości, nawet pozornie uniwersalne, bywa, że nie znajduje się zrozumienia, które by tak rzec, które pomaga… się nam rozwijać. Ja miałem szczęście, by tak rzec, ponieważ je znalazłem. I dziękuję Bartkowi82r. Życie to Gość.
Nie możesz pisać nowych tematów Nie możesz odpowiadać w tematach Nie możesz zmieniać swoich postów Nie możesz usuwać swoich postów Nie możesz głosować w ankietach Nie możesz załączać plików na tym forum Możesz ściągać załączniki na tym forum