Sztuczna inteligencja miała obiektywnie oceniać w konkursie piękności. Okazała się rasistką

Sztuczna inteligencja miała obiektywnie oceniać w konkursie piękności. Okazała się rasistką

Modelki na wybiegu
Modelki na wybieguŹródło:Fotolia / stadelpeter
Dodano:   /  Zmieniono: 
O zaskakującym niepowodzeniu międzynarodowego konkursu piękności, w którym jurorem miała być sztuczna inteligencja, pisze "Guardian". Okazało się bowiem, że w założeniu obiektywny komputerowy algorytm preferował reprezentantów jednej rasy.

Pierwszy międzynarodowy konkurs piękności, w którym kandydaci byli oceniani przez "maszyny", miał w swoim założeniu być całkowicie bezstronny. Sztuczna inteligencja (AI- artificial intelligence) miała bowiem brać pod uwagę czynniki obiektywne, takie jak symetria twarzy, czy obecność zmarszczek.

Aplikacje konkursowe chętni kandydaci składali za pomocą portalu Beauty.AI. Niemal 6 tys. ludzi z ponad 100 krajów wysłało swoje zdjęcia licząc na to, że sztuczna inteligencja wspierana przez algorytm uczciwie oceni, czy wpasowują się w kanon ludzkiego piękna.

Autorzy pomysłu byli przerażeni, gdy odkryli, że zwycięzców łączy wspólna cecha: przeważająca większość z nich ma jasną karnację. Okazało się, że sztuczna inteligencja wyjątkowo nie lubi osób ciemnoskórych. Wśród 44 zwycięzców, prawie wszyscy byli biali. W finałowym gronie znalazło się jeszcze kilku Azjatów i jedna ciemnoskóra osoba.

twitter

Microsoft też poległ

To nie pierwszy raz, kiedy sztuczna inteligencja zaczyna przejawiać niepokojące skłonności. W marcu Microsoft stworzył na Twitterze konto bota o imieniu Tay, którego działanie było oparte na sztucznej inteligencji. Wskutek interakcji z internautami, Tay w niedługim czasie zaczął głosić m.in. nazistowskie poglądy. Eksperyment wkrótce zakończono.

Czytaj też:
Eksperyment Microsoftu wymknął się spod kontroli. Internauci zmienili bota w nazistę

Źródło: The Guardian