Системите за лицево разпознаване допускат много грешки, когато анализират субекти, чиито цвят на кожата не е бял, се казва в доклад на американското правителство, цитиран от Франс прес.
Това важи най-много за чернокожите индивиди и за тези с азиатски черти. При тяхното разпознаване изкуственият интелект допуска сто пъти по-често грешки, отколкото при белите хора.
Изследователите от Националния институт за стандарти и технологии към американското правителство установиха и неправилно определяне на пола на чернокожите жени при 35 процента от случаите.
Агенцията припомня, че лицевото разпознаване е широко използвано от властите, силите на реда, летищата, банките, търговската мрежа и училищата.
Правозащитни организации и учени се опитват да ограничат влиянието на тези технологии. Те изтъкват факта, че алгоритмите допускат много грешки и невинни хора могат да попаднат заради тези несъвършенства в затвора.
Освен това базите данни могат да бъдат лесно използвани от хакери с криминални цели.
За още любопитни новини и снимки харесайте страницата на Dariknews.bg във Facebook тук
Това важи най-много за чернокожите индивиди и за тези с азиатски черти. При тяхното разпознаване изкуственият интелект допуска сто пъти по-често грешки, отколкото при белите хора.
Изследователите от Националния институт за стандарти и технологии към американското правителство установиха и неправилно определяне на пола на чернокожите жени при 35 процента от случаите.
Агенцията припомня, че лицевото разпознаване е широко използвано от властите, силите на реда, летищата, банките, търговската мрежа и училищата.
Правозащитни организации и учени се опитват да ограничат влиянието на тези технологии. Те изтъкват факта, че алгоритмите допускат много грешки и невинни хора могат да попаднат заради тези несъвършенства в затвора.
Освен това базите данни могат да бъдат лесно използвани от хакери с криминални цели.
За още любопитни новини и снимки харесайте страницата на Dariknews.bg във Facebook тук