"У соцмережі Facebook тестують програму для запобігання конфліктів у коментарях"

17 червня 2021

Штучний інтелект почне позначати образливі коментарі, що розміщуються в спільнотах в соціальній мережі Facebook. Передбачається, що завдяки цій програмі можна буде спростити роботу адміністраторів груп, повідомляє CNN.

В результаті користувачі, які відповідають за модерацію сторінок, отримуватимуть повідомлення про можливий конфлікт серед передплатників.

Записи з неприйнятною лексикою в групах отримають плашки «moderation alert» ( «оповіщення модератора»).

З новим способом маркування та оповіщення стане можливим своєчасно приймати необхідні дії для локалізації конфлікту в мережі. Однак нові обмеження не можна буде застосувати до таких тем, як вакцинація, політика, а також культурні відмінності.

Програмний інструмент, як вважають в Facebook, стане в нагоді 70 мільйонам користувачів, керуючим сторінками.

Після того, як адміністратор дізнається про конфлікт, він зможе уповільнити дискусію.

Орест ГОРЯНСЬКИЙ
для «Урядового кур’єра» 



При копіюванні даної статті посилання на джерело обов'язкове: http://www.ukurier.gov.ua