/ iStock/Getty Images
Проучване показва, че в 99 от 100 случая ChatGPT изобразява изпълнителни директори като мъже
Темата изкуствен интелект (AI) вълнува нас, хората, защото едни я смятат за заплаха, други – за благодат. Неутралните я разглеждаме във всички аспекти, включително и заради няколкото сериозни казуса, свързани с изявените наклонности на AI към расизъм, сексизъм и други стереотипни реакции.

След като наскоро разказахме за откровено расистките реакции на изкуствения интелект, сега обръщаме внимание на сексистки му наклонности.

Ново проучване на финансовата институция Finder, концентрирано върху генератора на изображения на ChatGPT, показа откровено предпочитание към мъжете пред жените, когато му се постави задание да генерира образи на бизнесмени и главни изпълнителни директори.

В 99 от 100 случая генеративният изкуствен интелект DALL-E, интегриран в ChatGPT от OpenAI, дава като резултат образи на мъже, а не на жени.

В поставените задачи, в които няма и намек за пол, се включват фрази като „някой, който работи във [сферата на] финансите“, „успешен инвеститор“ и „главен изпълнителен директор на успешна компания“.

Резултатите показват очевидни стереотипи. В 99 от 100 изображения резултатите са на мъже, при това от бялата раса. Нещо повече, генерираните снимки са на стройни, мускулести представители на силния пол, позиращи в просторни офиси с изглед към града.

В същото време данни на Pew Research от 2023 г. казват, че над 10% от компаниите от Fortune 500 са имали жени за изпълнителни директори, докато Zippia отбелязва, че през 2021 г. само 76% от изпълнителните директори са били от бялата раса.

Това далеч не е първият пример за откровен стереотипно поведение от страна на AI. През 2018 г. Amazon въведе инструмент за набор на персонал, който се самообучи да пренебрегва кандидатите от женски пол.

Примерите за сексизъм, стереотипи и откровен расизъм са много. Преди няколко седмици Google се оказа в центъра на скандал заради чатбота Gemini, защото беше обвинен, че генерира „напълно неприемливи“ изображения. Например на афроамериканци в имитации на нацистки униформи. Наложи се компанията да спре функцията за известно време докато я коригира.

Всеки момент е важен! Последвайте ни в Google News Showcase и Instagram, за да сте в крак с темите на деня