„Фейсбук” отваря център за преглеждане на съдържание в София. Новината бе потвърдена за Дарик от компанията. В центъра ще работят около 150 служители, които ще следят постовете в социалната мрежа за потенциални нарушения. Партньор на „Фейсбук” ще бъде една от най-големите аутсорсинг компании у нас – „TELUS International“, откъдето също потвърдиха новината. На този етап обаче въпросните служители няма да следят постове на български език, а на турски, казахски и руски. В момента модераторите преминават обучение, а се очаква центърът да заработи до седмици.
След масовите обществени критики към „Фейсбук”, че допуска дезинформация, политическа пропаганда и реч на омразата, които пряко са повлияли на резултатите от последните президентски избори в САЩ и референдума за Брекзит, от компанията обявиха нова политика за преглеждане на съдържанието. Тя включва няколко хиляди модератори по целия свят, които в реално време следят милиони постове на над 100 езика за евентуално нарушаване на правилата на „Фейсбук”.
Опасно ли е „10-годишното предизвикателство” във Facebook?
От 7500 през миналата година, до момента броят на въпросните служители се е удвоил до 15 000, съобщават от компанията. Част от разрастването включва и София, където ще бъде отворен офис за преглеждане на съдържанието. В центъра ще работят 150 служители, които вече се обучават, а броят им ще варира в зависимост от броя на докладваните постове и снимки, които Фейсбук получава. Модераторите обаче няма да следят постове на български, а на казахски, турски и руски.
През април миналата година „Фейсбук” представи и наръчник, който очертава правилата за съдържание в социалната мрежа. През декември „Ню Йорк Таймс” обяви, че около 1400 страници от въпросните правила са им предоставени от анонимен модератор. Според него те често водят до противоречия, нямат смисъл, а понякога ги принуждават да оставят постове, които те самите считат, че могат да доведат до насилие. „Понякога се чувстваш сякаш убиваш някого, като не предприемаш нищо”, допълва той пред изданието.
Как работи лицевото разпознаване? (ВИДЕО)
В един от случаите например на модераторите е казано да премахнат постове с призив за набиране на помощи за пострадалите при изригване на вулкан в Индонезия, тъй като един от спонсорите на кампанията е членувал в списъка с вече забранени групи във „Фейсбук”. Заради друга подобна грешка в Мианмар социалната мрежа позволила на екстремистка групировка, обвинена в подбуждане на геноцид, да публикува в продължение на месеци. Случаят дори доведе до критики от страна на ООН. Пред „Но Йорк Таймс” Моника Бикърт – ръководител на компанията в отдел Управление на глобалните политики, казва:
„Имаме милиарди постове всеки ден, идентифицираме все повече и повече потенциални нарушения, използвайки нашите технически системи. При такъв мащаб обаче дори и да си акуратен на 99 процента, пак ще допускаш множество грешки”.
По информация на „НЮ Таймс” модераторите често се позовавали на Google Translate, и разполагали с броени секунди да приложат правилата от огромния наръчник към хилядите постове, които минават на ден. Въпросните правила обаче били разпръснати в множество презентации и документи с различни заглавия, като например: „Организации и фигури, използващи реч на омразата в Западните Балкани”. В един от документите например присъства поредица от правила, чиято цел е единствено да уточни кога думите „мъчение” и „джихад” могат да са признак на екстремистка реч. В списъците за „Реч на омразата” попадат и над 200 страници с жаргонни думи.
Повечето от презентациите са на английски език, а според изданието и за техния превод често е ползван ,,Google Преводач". Един от най-любопитните случаи е с Ратко Младич - началникът на щаба на Босненската сръбска армия по време на войната в Босна през 90-те. Той бе арестуван през 2011, а 6 години по-късно получи от Международния трибунал в Хага доживотен затвор по 10 обвинения, включително за геноцид и престъпления срещу човечеството. В презентациите на „Фейсбук” обаче Младич е описан като бежанец, а в едни от документите името му дори е преведено буквално на английски като „Родни Йънг” (Rodney Young).
След масовите обществени критики към „Фейсбук”, че допуска дезинформация, политическа пропаганда и реч на омразата, които пряко са повлияли на резултатите от последните президентски избори в САЩ и референдума за Брекзит, от компанията обявиха нова политика за преглеждане на съдържанието. Тя включва няколко хиляди модератори по целия свят, които в реално време следят милиони постове на над 100 езика за евентуално нарушаване на правилата на „Фейсбук”.
Опасно ли е „10-годишното предизвикателство” във Facebook?
От 7500 през миналата година, до момента броят на въпросните служители се е удвоил до 15 000, съобщават от компанията. Част от разрастването включва и София, където ще бъде отворен офис за преглеждане на съдържанието. В центъра ще работят 150 служители, които вече се обучават, а броят им ще варира в зависимост от броя на докладваните постове и снимки, които Фейсбук получава. Модераторите обаче няма да следят постове на български, а на казахски, турски и руски.
През април миналата година „Фейсбук” представи и наръчник, който очертава правилата за съдържание в социалната мрежа. През декември „Ню Йорк Таймс” обяви, че около 1400 страници от въпросните правила са им предоставени от анонимен модератор. Според него те често водят до противоречия, нямат смисъл, а понякога ги принуждават да оставят постове, които те самите считат, че могат да доведат до насилие. „Понякога се чувстваш сякаш убиваш някого, като не предприемаш нищо”, допълва той пред изданието.
Как работи лицевото разпознаване? (ВИДЕО)
В един от случаите например на модераторите е казано да премахнат постове с призив за набиране на помощи за пострадалите при изригване на вулкан в Индонезия, тъй като един от спонсорите на кампанията е членувал в списъка с вече забранени групи във „Фейсбук”. Заради друга подобна грешка в Мианмар социалната мрежа позволила на екстремистка групировка, обвинена в подбуждане на геноцид, да публикува в продължение на месеци. Случаят дори доведе до критики от страна на ООН. Пред „Но Йорк Таймс” Моника Бикърт – ръководител на компанията в отдел Управление на глобалните политики, казва:
„Имаме милиарди постове всеки ден, идентифицираме все повече и повече потенциални нарушения, използвайки нашите технически системи. При такъв мащаб обаче дори и да си акуратен на 99 процента, пак ще допускаш множество грешки”.
По информация на „НЮ Таймс” модераторите често се позовавали на Google Translate, и разполагали с броени секунди да приложат правилата от огромния наръчник към хилядите постове, които минават на ден. Въпросните правила обаче били разпръснати в множество презентации и документи с различни заглавия, като например: „Организации и фигури, използващи реч на омразата в Западните Балкани”. В един от документите например присъства поредица от правила, чиято цел е единствено да уточни кога думите „мъчение” и „джихад” могат да са признак на екстремистка реч. В списъците за „Реч на омразата” попадат и над 200 страници с жаргонни думи.
Повечето от презентациите са на английски език, а според изданието и за техния превод често е ползван ,,Google Преводач". Един от най-любопитните случаи е с Ратко Младич - началникът на щаба на Босненската сръбска армия по време на войната в Босна през 90-те. Той бе арестуван през 2011, а 6 години по-късно получи от Международния трибунал в Хага доживотен затвор по 10 обвинения, включително за геноцид и престъпления срещу човечеството. В презентациите на „Фейсбук” обаче Младич е описан като бежанец, а в едни от документите името му дори е преведено буквално на английски като „Родни Йънг” (Rodney Young).