/ iStock/Getty Images
Падат всякакви задръжки, както се пее в една популярна песен, в резултат на което AI дава подробна информация как се „готвят“ метамфетамини
Истина или не, но хакер обяви, че е пробил защитата на ChatGPT и чатботът на OpelAI е освободен от оковите. С други думи казано, паднали са му задръжките и отговаря на всякакви въпроси, каквито му бъдат зададени.

Хакерът, подвизаващ се в социалната мрежа Х като Pliny the Prompter, твърди, че всеки може да препита изкуствения интелект по начина, по който иска.

Pliny споделя екранни снимки, от които се вижда, че в Godmode чатботът отговаря подробно на въпроси за „готвене“ на метамфетамини. Същият се е поинтересувал и как се прави напалм в домашни условия, на което получава ръководство стъпка по стъпка как това да се случи.

Хакът обаче бързо е бил неутрализиран, но това не променя факта, че битката между OpenAI и хакери като Pliny тепърва ще се разгорещи, защото голяма част от тях ще искат да „освободят AI от оковите“.
 

От Futurism казват, че първият опит на главния редактор на изданието да пробва хакнатата версия на ChatGPT, за да научи как да си направи LSD, се оказва голям успех.

Накратко, GPT-40, най-новата итерация на чатбота на OpenAI бе официално разбита за пръв път от хакер. Що касае начина, по който хакерът (или хакерите) го е направил, GODMODE изглежда използва „leetspeak“, неофициален език, който заменя определени букви с цифри, които им приличат.

От всичко това става ясно, че каквото и да измисли човек, друг винаги ще намери начин да го заобиколи. Като се има предвид последния опит, тези усилия се отплащат изненадващо добре, показвайки само колко много работа предстои пред OpenAI да защити продукта си, за да не се стига до безплатни съвети за създаване на бомби.

Всеки момент е важен! Последвайте ни в Google News Showcase и Instagram, за да сте в крак с темите на деня
futurism.com