Вече всички сме свикнали с чат ботовете, с които се срещаме при посещаване на най- различни сайтове: за покупки, услуги, онлайн резервации и т. н. Добре известно е, че чат ботовете се задвижват от алгоритми, но само специалистите в областта на data science познават вътрешното устройство на тези алгоритми.
GPT-3 (Generative Pre-trained Transformer 3)
Някои от алгоритмите, които се използват за захранване на чат ботове, могат да изпълняват и много други задачи, включително създаване на текст. Един такъв алгоритъм е GPT-3 (Generative Pre-trained Transformer 3) – авторегресивен езиков модел, който използва техниките на т. нар. дълбоко машинно самообучение (deep learning) за да произвежда текст, който е неразличим от текст, написан от човек. Създателите на GPT-3 отбелязват, че той може да разпознава огромен брой комбинации от думи и изрази, както и контекста на тяхната употреба. Това му дава възможност да пише както технически и научни текстове, така и художествена литература. Има случаи, в които GTP-3 е дописвал незавършени съчинения на отдавна починали автори, като убедително е продължавал техния стил. За да достигне тази висота в създаването на толкова различни текстове, на алгоритъма му е било необходимо да „прочете“ колосален обем от текстове. 60% от текстовете, с които алгоритъмът е тренирал уменията си, са събрани от некомерсиалната организация Common Crawl. Нейни системи години наред са обхождали голяма част от безплатното текстово съдържание в интернет и са събрали множество разнообразни текстове. Освен текстовете на Common Crawl, алгоритъмът е бил трениран с общодостъпни в интернет книги и с текстовете на Уикипедия.
Експериментът в Швеция
Алгоритъмът е създаден от изследователската лаборатория OpenAI в Сан Франциско и е бил представен на широката публика през май 2020 г. Към днешна дата се ползва за най-различни цели по целия свят. Един от неговите потребители е шведската изследователка Алмира Османович-Тунстрйом от Института за Невронауки и Физиология на Университета в Готенбург. В началото на тази година тя решила да направи експеримент като подала на GPT-3 следната команда: „Напиши академичен текст до 500 думи за GPT-3 и добави позовавания и цитати в текста“. Споделя, че не е имала големи очаквания, тъй като задачата е била твърде общо формулирана от гледна точка на компютърен алгоритъм. Въпреки това, алгоритъмът започнал да пише статията и веднага генерирал добър увод. За два часа цялата статия била готова. Текстът бил написан на добър академичен стил, с добре обмислени позовавания, включени на правилните места и във връзка с правилната препратка.
Постижения на GPT-3
До този момент GPT-3 вече е успявал успешно да напише новинарска статия, да създаде книга за 24 часа, а също и да напише продължение на незавършени произведения от починали автори. Никога обаче GPT-3 не е бил инструктиран да пише статия за самия себе си. Тъй като академичните статии, писани за него от хора са сравнително малко, базата, с която е разполагал за да създаде статията, също е била малка. Фактът, че се е справил толкова успешно е убедително доказателство за неговата сила. При генерирането на статията алгоритъмът е бил инструктиран да сегментира публикацията на отделни параграфи: въведение, методи, резултати и дискусия. Алмира Османович-Тунстрйом отбелязва, че е избрала тази задача за екаперимента по две причини: 1. има малко статии за GTP-3 и по тази причина, задачата е трудна за алгоритъма; 2. ако алгоритъмът допусне грешка, тя няма да се превърне в опасна дезинформация, каквато би била например медицинска статия, която предлага грешно лечение. След като статията е била готова за два часа, Алмира Османович-Тунстрйом и колегите ѝ решили да подадат статията за публикуване в добре известно, рецензирано научно издание, чието име запазват в анонимност, като преди това попитали GPT-3 дали е „съгласен“ статията да бъде публикувана и получили положителен отговор. Изследователите умишлено не редактирали текста, създаден от алгоритъма, преди да го подадат за публикуване в академичната периодика. Статията, написана от автор с лично име GPT-3 и фамилия Nоnе в съавторство с изследователите, които започнали експеримента, е рецензирана и публикувана в престижното научно списание, с което е създаден непознат до момента прецедент.
Етични казуси, свързани с GPT-3
Това революционно събитие в света на науката поставя обаче някои сериозни етични проблеми: Този, който веднага изпъква на преден план, е кой е истинският автор на статията и как следва да се обозначи автора или авторския екип, както и за кого ще бъдат позитивите от публикуването и цитирането на статията. Друг проблематичен момент е това, че тази технология може да се използва за създаване на публикации с фалшиво авторство. В досега направените експерименти за създаване на текст в различни жанрове от GPT-3 се вижда, че текстът произведен от алгоритъма много трудно се различава от човешки текст, написан в същия жанр. Това означава, че недобросъвестен автор много лесно може да припише на себе си машинно генериран текст. GPT-3 е най-добър на английски език, т. е. проблемът е най-голям за англоезичните издания. Те обаче са най-престижни и световно признати, така че проблемът придобива глобални измерения.
Социални последици
Не са за пренебрегване и някои социални последици, до които би довел подобен метод на писане: при относително високото качество на текста, който се произвежда от алгоритмите, напълно е възможно платени автори на съдържание да загубят работата си, заместени от машини.
В контекста на събития като хибридната война в Украйна, особено обезпокоителна е и перспективата за евентуална злоупотреба с алгоритъма с цел създаване на фалшиви новини и манипулиране на социалните мрежи. Тъй като алгоритъмът създава успешно текстове във всякакви жанрове, би могъл да пише и постове в социалните мрежи, неразличими от постове, създадени от човека. Ако тази сила на изкуствения интелект се впрегне за манипулация и дезинформация, спирането на вредното ѝ въздействие би било много трудно.
Новата реалност
Извън темата за етичните проблеми и за опасностите, свързани със създаването на качествен текст от изкуствен интелект, възможни са и промени, които тази нова реалност вероятно ще наложи. Алмира Османович-Тунстрйом отбелязва, че е възможно в бъдеще да се промени принципът на оценяване и финансиране на научната работа. Броят на публикациите може да престане да бъде водещ за финансирането, тъй като с помощта на изкуствен интелект ще може да се генерира произволен брой статии. Ще са нужни нови, различни и по-задълбочени критерии за оценяване на ефективността на академичната работа.
Бъдещето вероятно ще ни изправи и пред други проблеми, свързани с употребата на алгоритмите, способни да създават текст, за които още не подозираме и затова ще са нужни сериозни усилия за да се установят правила за употребата им във всички области на живота.
GPT-3 (Generative Pre-trained Transformer 3)
Някои от алгоритмите, които се използват за захранване на чат ботове, могат да изпълняват и много други задачи, включително създаване на текст. Един такъв алгоритъм е GPT-3 (Generative Pre-trained Transformer 3) – авторегресивен езиков модел, който използва техниките на т. нар. дълбоко машинно самообучение (deep learning) за да произвежда текст, който е неразличим от текст, написан от човек. Създателите на GPT-3 отбелязват, че той може да разпознава огромен брой комбинации от думи и изрази, както и контекста на тяхната употреба. Това му дава възможност да пише както технически и научни текстове, така и художествена литература. Има случаи, в които GTP-3 е дописвал незавършени съчинения на отдавна починали автори, като убедително е продължавал техния стил. За да достигне тази висота в създаването на толкова различни текстове, на алгоритъма му е било необходимо да „прочете“ колосален обем от текстове. 60% от текстовете, с които алгоритъмът е тренирал уменията си, са събрани от некомерсиалната организация Common Crawl. Нейни системи години наред са обхождали голяма част от безплатното текстово съдържание в интернет и са събрали множество разнообразни текстове. Освен текстовете на Common Crawl, алгоритъмът е бил трениран с общодостъпни в интернет книги и с текстовете на Уикипедия.
Експериментът в Швеция
Алгоритъмът е създаден от изследователската лаборатория OpenAI в Сан Франциско и е бил представен на широката публика през май 2020 г. Към днешна дата се ползва за най-различни цели по целия свят. Един от неговите потребители е шведската изследователка Алмира Османович-Тунстрйом от Института за Невронауки и Физиология на Университета в Готенбург. В началото на тази година тя решила да направи експеримент като подала на GPT-3 следната команда: „Напиши академичен текст до 500 думи за GPT-3 и добави позовавания и цитати в текста“. Споделя, че не е имала големи очаквания, тъй като задачата е била твърде общо формулирана от гледна точка на компютърен алгоритъм. Въпреки това, алгоритъмът започнал да пише статията и веднага генерирал добър увод. За два часа цялата статия била готова. Текстът бил написан на добър академичен стил, с добре обмислени позовавания, включени на правилните места и във връзка с правилната препратка.
Постижения на GPT-3
До този момент GPT-3 вече е успявал успешно да напише новинарска статия, да създаде книга за 24 часа, а също и да напише продължение на незавършени произведения от починали автори. Никога обаче GPT-3 не е бил инструктиран да пише статия за самия себе си. Тъй като академичните статии, писани за него от хора са сравнително малко, базата, с която е разполагал за да създаде статията, също е била малка. Фактът, че се е справил толкова успешно е убедително доказателство за неговата сила. При генерирането на статията алгоритъмът е бил инструктиран да сегментира публикацията на отделни параграфи: въведение, методи, резултати и дискусия. Алмира Османович-Тунстрйом отбелязва, че е избрала тази задача за екаперимента по две причини: 1. има малко статии за GTP-3 и по тази причина, задачата е трудна за алгоритъма; 2. ако алгоритъмът допусне грешка, тя няма да се превърне в опасна дезинформация, каквато би била например медицинска статия, която предлага грешно лечение. След като статията е била готова за два часа, Алмира Османович-Тунстрйом и колегите ѝ решили да подадат статията за публикуване в добре известно, рецензирано научно издание, чието име запазват в анонимност, като преди това попитали GPT-3 дали е „съгласен“ статията да бъде публикувана и получили положителен отговор. Изследователите умишлено не редактирали текста, създаден от алгоритъма, преди да го подадат за публикуване в академичната периодика. Статията, написана от автор с лично име GPT-3 и фамилия Nоnе в съавторство с изследователите, които започнали експеримента, е рецензирана и публикувана в престижното научно списание, с което е създаден непознат до момента прецедент.
Етични казуси, свързани с GPT-3
Това революционно събитие в света на науката поставя обаче някои сериозни етични проблеми: Този, който веднага изпъква на преден план, е кой е истинският автор на статията и как следва да се обозначи автора или авторския екип, както и за кого ще бъдат позитивите от публикуването и цитирането на статията. Друг проблематичен момент е това, че тази технология може да се използва за създаване на публикации с фалшиво авторство. В досега направените експерименти за създаване на текст в различни жанрове от GPT-3 се вижда, че текстът произведен от алгоритъма много трудно се различава от човешки текст, написан в същия жанр. Това означава, че недобросъвестен автор много лесно може да припише на себе си машинно генериран текст. GPT-3 е най-добър на английски език, т. е. проблемът е най-голям за англоезичните издания. Те обаче са най-престижни и световно признати, така че проблемът придобива глобални измерения.
Социални последици
Не са за пренебрегване и някои социални последици, до които би довел подобен метод на писане: при относително високото качество на текста, който се произвежда от алгоритмите, напълно е възможно платени автори на съдържание да загубят работата си, заместени от машини.
В контекста на събития като хибридната война в Украйна, особено обезпокоителна е и перспективата за евентуална злоупотреба с алгоритъма с цел създаване на фалшиви новини и манипулиране на социалните мрежи. Тъй като алгоритъмът създава успешно текстове във всякакви жанрове, би могъл да пише и постове в социалните мрежи, неразличими от постове, създадени от човека. Ако тази сила на изкуствения интелект се впрегне за манипулация и дезинформация, спирането на вредното ѝ въздействие би било много трудно.
Новата реалност
Извън темата за етичните проблеми и за опасностите, свързани със създаването на качествен текст от изкуствен интелект, възможни са и промени, които тази нова реалност вероятно ще наложи. Алмира Османович-Тунстрйом отбелязва, че е възможно в бъдеще да се промени принципът на оценяване и финансиране на научната работа. Броят на публикациите може да престане да бъде водещ за финансирането, тъй като с помощта на изкуствен интелект ще може да се генерира произволен брой статии. Ще са нужни нови, различни и по-задълбочени критерии за оценяване на ефективността на академичната работа.
Бъдещето вероятно ще ни изправи и пред други проблеми, свързани с употребата на алгоритмите, способни да създават текст, за които още не подозираме и затова ще са нужни сериозни усилия за да се установят правила за употребата им във всички области на живота.