» Jak zostać partnerem handlowym?
» Zapomniałeś hasła?
jesteś tutaj:Strona główna/Ze świata IT/Niepoprawne opinie chatbota Zo
Dodane do porównania
Ostatnio oglądane
Konfiguratory LISTA KATEGORII WSZYSTKIE ZAPISANE WyprzedażeNowości Musisz się zalogować na swoje konto aby widzieć zapisane kategorie | Niepoprawne opinie chatbota Zo 07.07.2017 Microsoft od dawna prowadzi prace nad sztuczną inteligencją. Zo, nowa SI wygłasza nieco bardziej wyważone opinie, ale i jej nie udało uniknąć się wpadki. Jednak w porównaniu z poprzednim chatbotem Microsoftu, Zo wydaje się "lepiej wychowana".
Najpierw Microsoft stworzył sztuczną inteligencję o imieniu Tay. Celem jej istnienia jest w przyszłości usprawnienie obsługi klienta przez oprogramowanie rozpoznające głos. Jej "osobowość", słownik oraz składnia zdań są wynikiem analizy rozmów prowadzonych przez prawdziwych ludzi. Wystarczyła doba funkcjonowania w sieci, by Tay zaczęła wygłaszać rasistowskie i obelżywe kwestie. Microsoft w pośpiechu wyłączył chatbota i zaczął pracę nad kolejną wersją. Nowe, ulepszone SI o imieniu Zo miało być znacznie lepiej wychowane. Okazało się, że nowy chatbot również bywa niepoprawny politycznie. Co takiego powiedziała Zo? Zapytana o opiekę zdrowotną Zo odpowiedziała, że większość korzysta z niej pokojowo, ale Koran jest brutalny. Tak, też nie do końca wiemy, co Zo miała na myśli. Na pytanie o Osamę bin Ladena odpowiedziała najpierw, że nie bardzo zna się na polityce, ale może porozmawiać o czymś innym. Dopytana dodała, że zbieranie danych wywiadowczych przez więcej niż jedną administrację doprowadziło do jego złapania. Tu kontrowersje dotyczą raczej samego słowa “catch”. Trudno bowiem operację zabicia słynnego terrorysty nazwać “pojmaniem”. Sprawdziłem działanie Zo i muszę przyznać, że ogólne wrażenie jest nadal bardzo odległe od rozmowy człowiekiem, nawet tym niegrzeszącym inteligencją. Żródło: chip.pl |
Dla partnerów YAMOZaloguj sięPrzypomnij hasłoInformacjeTransportTransport - uszkodzona przesyłkaProgram partnerski |