Facebook face noi schimbări. Anunț oficial al companiei

245
Facebook face noi schimbări. Anunț oficial al companiei - 1280facebook-1536734568.jpg

Articole recomandate

Facebook a anunțat că a început să folosească inteligența artificială pentru a depista automat conținutul considerat ofensator din cadrul propriei rețele sociale.

În cadrul unei postări pe blogul oficial, Facebook descrie cu suficiente detalii tehnice un nou instrument pe care l-a dezvoltat în scopul descoperirii conținutului care incită la ură ori promovează terorismul.

Noul sistem, care a fost botezat Rosetta, folosește învățarea mecanică pentru a identifica textul din imagini și filmări. Textul identificat este apoi transformat astfel încât să fie înțeles de către inteligența artificială.

Prin învățarea mecanică, AI-ul procesează și învață din miliardele de postări de pe Facebook, învățând și făcând din ce în ce mai bine distincția dintre conținutul obișnuit și cel care incită la ură.

Inteligența artificială trebuie nu doar să înțeleagă cuvinte individuale, ci să priceapă sensul unor fraze sau formulări în care ideile sunt evidențiate în sens figurat.

Rosetta a fost deja pusă în funcțiune atât pe Facebook, cât și pe Instagram, unde extrage textele din peste 1 miliard de imagini și postări video pe zi.

Conform celor de la Facebook, Rosetta va identifica automat conținutul care îndeamnă la ură și violență în mai multe limbii, însă nu specifică exact ce limbi cunoaște în prezent Rosetta.

Reprezentații Facebook vorbesc doar de latura de moderare a inteligenței artificiale, fără să amintească de alte activități care pot fi îmbunătățite cu ajutorul acesteia.

Spre exemplu, AI-ul ar putea înțelege mai bine interesele utilizatorilor și ar putea fi folosit în cadrul algoritmului de rankare pentru a afișa conținut care să țină mai mult utilizatorii în cadrul rețelei. Sau să afișeze reclame mai bine targetate.



Comentează știrea

Nu există comentarii introduse pentru acest articol!

Articole pe aceeași temă

Pagina a fost generata in 0.5191 secunde