Facebook тестира софтверска алатка со која сака да обележува и отстранува навредлива содржина и коментари во корисничките групи на социјалните мрежи.

Објавата за тестирање на таков софтвер пристигнала вчерана блогот, каде Facebook претставил серија нови софтверски алатки за да им помогне на повеќе од 70 милиони луѓе да водат и уредуваат групи на платформата.

Facebook, кој според компанијата има 2,85 милијарди корисници, објави на крајот на минатата година дека повеќе од 1,8 милијарди луѓе секој месец учествуваат во десетици милиони нејзини активни групи.

Со новите алатки, Facebook, како што е најавено, ќе може да ги предупреди администраторите на групите ако некоја содржина во нивната група е „контроверзна или„ нездрава “, соопшти компанијата.

Ако администраторот добие предупредување за несоодветна содржина, тој ќе може да преземе различни чекори, вклучително и исклучување или привремено ограничување на фреквенцијата на објавување коментари од страна на некои членови на групата и одредување на брзината на коментарите на одделни објави.

Си-Ен-Ен наведува дека технолошките платформи, како што се Фејсбук и Твитер, се повеќе се потпираат на вештачката интелигенција за да утврдат голем дел од она што е видливо преку Интернет, вклучително и алатки кои откриваат и отстрануваат говор на омраза.

Ова може да биде корисно за да се спречи објавување на содржина што корисниците не сакаат да ја гледаат, а вештачката интелигенција може да им помогне на модераторите и да ги исчистат социјалните мрежи, кои станаа премногу масовни за луѓето да можат да ги следат сами, проценува CNN.