Вече има редица програми, които създават фотореалистични изображения с помощта на изкуствен интелект. В последните месеци няколко такива "снимки" обиколиха социалните медии, пише Deutsche Welle. Как да ги разпознаваме?
Никога досега не е било толкова лесно да се създават фалшиви изображения, които изглеждат напълно реалистични. Необходими са единствено интернет и програма, работеща с изкуствен интелект (ИИ). За секунди могат да се конструират фалшификати, които изглеждат напълно автентични. Тяхното разпространение в социалните мрежи е мълниеносно, а целта им често е дезинформация.
Напоследък доста подобни "снимки" станаха вирални. Предполагаемият "арест" на Владимир Путин
, както и "задържането" на Доналд Тръмп, Илон Мъск, който уж държи за ръката Мери Бара, главната изпълнителна директорка на "Дженеръл мотърс".
Фалшиви земетресения
Автентичността на събития като предполагаеми зрелищни автомобилни катастрофи или "арестите" на Путин и Тръмп може лесно да бъдат проверена. По-проблемни са изображенията, показващи не толкова популярни хора, обяснява експертът по ИИ Хенри Айдер пред ДВ. “Дезинформация се разпространява не само чрез фалшиви изображения, показващи хора”, обяснява Айдер. "Виждали сме да се фабрикуват събития, които никога не са се случвали, като например земетресения".
Пример е "земетресението", разтърсило северозападната част на Тихия океан през 2001 година. Подобен трус всъщност никога не се е случвал. Изображенията, които уж показват бедствието, са генерирани от изкуствен интелект. Тези “снимки” са все по-реалистични и това прави все по-трудно установяването на достоверна информация.
Има ли изход от тази ситуация? Точно както всичко останало, създадено от човека, изкуственият интелект също не е перфектен и е склонен да допуска грешки.
В момента програми като Midjourney, Dall-E и DeepAI имат проблеми най-вече с генерирането на фалшиви изображения на хора. Ето шест съвета от екипа на ДВ за проверка на фактите за това как може да бъде разпозната манипулирана снимка.
Увеличете и разгледайте внимателно
Много изображения, генерирани от изкуствен интелект, изглеждат съвсем истински на пръв поглед. Програмите създават фотореалистични снимки, които понякога могат да бъдат разобличени като фалшификати само с по-внимателно разглеждане. Първият съвет е именно такъв: вгледайте се внимателно. Потърсете версии на изображението с възможно най-високата разделителна способност и се съсредоточете върху детайлите в него. Това би могло да разкрие несъответствия и грешки, които може да не сте забелязали първоначално.
Потърсете източника на изображението
Ако не сте сигурни дали дадено изображение е истинско или е генерирано от изкуствен интелект, опитайте се да разберете повече за това откъде идва то. Понякога други потребители споделят какво са открили в коментарите под изображението.
Обратното търсене по изображение също може да помогне. Качете файла в инструменти като Google reverse image search, TinEye или Yandex. Този метод обикновено предоставя повече информация, включително и за източника. В някои случаи в резултатите изникват дори проверки на фактите от реномирани медии, където може да се информирате за произхода на въпросното изображение.
Обърнете внимание на пропорциите на тялото
Правилни ли са пропорциите на тялото на изобразените хора? Не е необичайно изображения, генерирани от изкуствен интелект, да имат несъответствия в пропорциите. Ръцете може да са твърде малки, а пръстите - твърде дълги. Или главата и краката да не са съразмерни с останалата част от тялото.Такъв е случаят и с фалшивата снимка на коленичилия пред Си Дзинпин Владимир Путин.
Потърсете типичните грешки на изкуствения интелект
Основните грешки, които изкуственият интелект допуска при генериране на изображения на хора, са в ръцете. Понякога хората имат шести пръст. А при случая с фалшификатите на папата с дизайнерското яке, на снимката вдясно той изглежда има само четири пръста.
Други често допускани грешки в изображенията на изкуствения интелект са прекалено многото зъби, неестествените уши и деформираните рамки на очила. Отразяващите повърхности също често създават проблеми за изкуствения интелект, когато създава изображения. Експертът по ИИ Хенри Айдер обаче предупреждава да не се разчита, че програмите ще продължат да допускат подобни грешки още много дълго време.
Неестествено безупречно ли е изображението?
Приложението Midjourney например създава изображения, които изглеждат прекалено идеални, стилизирани и естетически издържани. Следвайте вътрешното си усещане. Възможно ли е толкова съвършено и нереално изображение с безупречни хора наистина да е автентично? Кожата на лицата често е гладка и без никакви несъвършенства. Дори косата и зъбите изглеждат безупречни.
Разгледайте фона на снимката
Понякога фонът на дадено изображение може да издаде манипулацията. Обектите там може са деформирани. В няколко случая програмите за изкуствен интелект клонират хора и обекти и ги използват повече от веднъж. Не е рядкост и фонът не просто да не е на фокус, но и да е извънредно размазан. Фалшивата снимка, за която се твърди, че показва ядосания Уил Смит на Оскарите през 2022, е пример за това.
Много от изображенията, генерирани от изкуствен интелект, засега могат да бъдат разобличени като фалшиви след сравнително кратка проверка. Но технологиите стават все по-добри. А това значи, че грешките в бъдеще вероятно ще са все по-редки и по-трудни за откриване.
"Мисля, че трябва да свикнем с факта, че всъщност не може да се вярва на нито едно изображение в интернет", предупреждава Антонио Крюгер от Университета на Заарланд.
Никога досега не е било толкова лесно да се създават фалшиви изображения, които изглеждат напълно реалистични. Необходими са единствено интернет и програма, работеща с изкуствен интелект (ИИ). За секунди могат да се конструират фалшификати, които изглеждат напълно автентични. Тяхното разпространение в социалните мрежи е мълниеносно, а целта им често е дезинформация.
Напоследък доста подобни "снимки" станаха вирални. Предполагаемият "арест" на Владимир Путин
, както и "задържането" на Доналд Тръмп, Илон Мъск, който уж държи за ръката Мери Бара, главната изпълнителна директорка на "Дженеръл мотърс".
Фалшиви земетресения
Автентичността на събития като предполагаеми зрелищни автомобилни катастрофи или "арестите" на Путин и Тръмп може лесно да бъдат проверена. По-проблемни са изображенията, показващи не толкова популярни хора, обяснява експертът по ИИ Хенри Айдер пред ДВ. “Дезинформация се разпространява не само чрез фалшиви изображения, показващи хора”, обяснява Айдер. "Виждали сме да се фабрикуват събития, които никога не са се случвали, като например земетресения".
Пример е "земетресението", разтърсило северозападната част на Тихия океан през 2001 година. Подобен трус всъщност никога не се е случвал. Изображенията, които уж показват бедствието, са генерирани от изкуствен интелект. Тези “снимки” са все по-реалистични и това прави все по-трудно установяването на достоверна информация.
Има ли изход от тази ситуация? Точно както всичко останало, създадено от човека, изкуственият интелект също не е перфектен и е склонен да допуска грешки.
В момента програми като Midjourney, Dall-E и DeepAI имат проблеми най-вече с генерирането на фалшиви изображения на хора. Ето шест съвета от екипа на ДВ за проверка на фактите за това как може да бъде разпозната манипулирана снимка.
Увеличете и разгледайте внимателно
Много изображения, генерирани от изкуствен интелект, изглеждат съвсем истински на пръв поглед. Програмите създават фотореалистични снимки, които понякога могат да бъдат разобличени като фалшификати само с по-внимателно разглеждане. Първият съвет е именно такъв: вгледайте се внимателно. Потърсете версии на изображението с възможно най-високата разделителна способност и се съсредоточете върху детайлите в него. Това би могло да разкрие несъответствия и грешки, които може да не сте забелязали първоначално.
Потърсете източника на изображението
Ако не сте сигурни дали дадено изображение е истинско или е генерирано от изкуствен интелект, опитайте се да разберете повече за това откъде идва то. Понякога други потребители споделят какво са открили в коментарите под изображението.
Обратното търсене по изображение също може да помогне. Качете файла в инструменти като Google reverse image search, TinEye или Yandex. Този метод обикновено предоставя повече информация, включително и за източника. В някои случаи в резултатите изникват дори проверки на фактите от реномирани медии, където може да се информирате за произхода на въпросното изображение.
Обърнете внимание на пропорциите на тялото
Правилни ли са пропорциите на тялото на изобразените хора? Не е необичайно изображения, генерирани от изкуствен интелект, да имат несъответствия в пропорциите. Ръцете може да са твърде малки, а пръстите - твърде дълги. Или главата и краката да не са съразмерни с останалата част от тялото.Такъв е случаят и с фалшивата снимка на коленичилия пред Си Дзинпин Владимир Путин.
Потърсете типичните грешки на изкуствения интелект
Основните грешки, които изкуственият интелект допуска при генериране на изображения на хора, са в ръцете. Понякога хората имат шести пръст. А при случая с фалшификатите на папата с дизайнерското яке, на снимката вдясно той изглежда има само четири пръста.
In the era of deep fake, AI generated images, it is going to be humanly impossible to discern what is fake & real.
— Kumar Manish (@kumarmanish9) March 31, 2023
Pope Francis in Balenciaga deepfake fooled millions. ⬇️ pic.twitter.com/EbZM0LdYED
Други често допускани грешки в изображенията на изкуствения интелект са прекалено многото зъби, неестествените уши и деформираните рамки на очила. Отразяващите повърхности също често създават проблеми за изкуствения интелект, когато създава изображения. Експертът по ИИ Хенри Айдер обаче предупреждава да не се разчита, че програмите ще продължат да допускат подобни грешки още много дълго време.
Неестествено безупречно ли е изображението?
Приложението Midjourney например създава изображения, които изглеждат прекалено идеални, стилизирани и естетически издържани. Следвайте вътрешното си усещане. Възможно ли е толкова съвършено и нереално изображение с безупречни хора наистина да е автентично? Кожата на лицата често е гладка и без никакви несъвършенства. Дори косата и зъбите изглеждат безупречни.
Разгледайте фона на снимката
Понякога фонът на дадено изображение може да издаде манипулацията. Обектите там може са деформирани. В няколко случая програмите за изкуствен интелект клонират хора и обекти и ги използват повече от веднъж. Не е рядкост и фонът не просто да не е на фокус, но и да е извънредно размазан. Фалшивата снимка, за която се твърди, че показва ядосания Уил Смит на Оскарите през 2022, е пример за това.
2. Prompt:
— Barsee 🐶 (@heyBarsee) March 24, 2023
GoPro view of Will Smith wearing a tuxedo slapping the camera forcefully, Oscars award ceremony in the background, fine art cinematic portrait photography, ultra hyper-realism, dramatic lighting, action photograph --v 5 --s 750 pic.twitter.com/NwKiJY5Uw6
Много от изображенията, генерирани от изкуствен интелект, засега могат да бъдат разобличени като фалшиви след сравнително кратка проверка. Но технологиите стават все по-добри. А това значи, че грешките в бъдеще вероятно ще са все по-редки и по-трудни за откриване.
"Мисля, че трябва да свикнем с факта, че всъщност не може да се вярва на нито едно изображение в интернет", предупреждава Антонио Крюгер от Университета на Заарланд.