Compensatie Voor Het Sterrenbeeld
Substability C Beroemdheden

Ontdek De Compatibiliteit Door Zodiac Sign

Facebook kondigt ingrijpende wijzigingen aan in zijn anti-misinformatiebeleid

Feiten Controleren

(Shutterstock)

Facebook begint het tweede kwartaal van het fiscale jaar met het doorvoeren van wijzigingen in de manier waarop het verkeerde informatie op zijn platform bestrijdt.

In een blogbericht van bijna 2000 woorden dat woensdag naar Poynter werd gestuurd, kondigde Facebook een hele reeks nieuwe dingen aan die het doet om valse nieuwsverhalen, afbeeldingen en video's te bestrijden.

Onder de veranderingen:

  • Facebook verkleint nu het bereik van groepen die herhaaldelijk verkeerde informatie verspreiden.
  • Het onderzoekt het gebruik van crowdsourcing als een manier om te bepalen welke nieuwsuitzendingen gebruikers het meest vertrouwen.
  • En het bedrijf voegt nieuwe indicatoren toe aan Messenger, groepen en nieuwsfeed om gebruikers te informeren over de inhoud die ze zien.

'We hebben een aantal productupdates versus een of twee grote veranderingen', zei Facebook-woordvoerster Mari Melguizo in een e-mail aan Poynter. 'Deze inspanningen zijn gericht op het veilig houden van mensen en het handhaven van de integriteit van de informatie die door onze apps stroomt.'

Dit is wat elk van de grootste veranderingen specifiek te maken heeft met verkeerde informatie, met context van journalisten, academici en technologen, evenals aanvullende lectuur over elk onderwerp. Lees de volledige blogpost van Facebook hier .

Groepen degraderen die verkeerde informatie verspreiden

Een van de grootste veranderingen die Facebook woensdag aankondigde, was dat het het bereik zou gaan verminderen van groepen die herhaaldelijk valse nieuwsverhalen, afbeeldingen en video's verspreiden.

'Als mensen in een groep herhaaldelijk inhoud delen die door onafhankelijke factcheckers als onwaar is beoordeeld, zullen we de algehele nieuwsfeeddistributie van die groep verminderen', schreven Guy Rosen, vice-president integriteit van Facebook, en Tessa Lyons, hoofd van nieuwsfeedintegriteit , in de blogpost.

Facebookheeft flauwgevallende afgelopen maanden voor de verspreiding van complottheorieën tegen vaccins, waarvan er vele in groepen begonnen en zich vervolgens naar de rest van het platform verspreidden. Als reactie op zowel mediadruk alsdruk van Amerikaanse politici, het bedrijf schetste een plan begin maart om antivaxxer-inhoud op zijn platform te beteugelen.

Daarin kondigde Facebook aan dat groepen en pagina's die verkeerde informatie over vaccins delen, uit het aanbevelingsalgoritme zouden worden verwijderd, maar niet helemaal. De verhuizing was een stilzwijgende erkenning van de macht die groepen hebben bij het verspreiden van nep-inhoud.

Facebook onderneemt actie tegen samenzweringen tegen vaccins. Maar nep medische behandelingen krijgen nog steeds een enorm bereik.

BuzzFeed News gerapporteerd in maart 2018 dat de functie, vaak geprezen door Facebook-leiderschap — en prioriteit in nieuwsoverzicht - was 'een wereldwijde honingpot van spam, nepnieuws, samenzweringen, verkeerde informatie over de gezondheid, intimidatie, hacking, trollen, oplichting en andere bedreigingen voor gebruikers' geworden. Waarom?

'Propagandisten en spammers moeten een publiek verzamelen, en groepen serveren dat op een schaal,' vertelde Renee DiResta, een beveiligingsonderzoeker, aan BuzzFeed. 'Het is niet nodig om een ​​advertentiecampagne te voeren om mensen te vinden die ontvankelijk zijn voor uw bericht als u zich eenvoudig kunt aansluiten bij relevante groepen en kunt beginnen met posten.'

En hoewel het bedrijf verschillende stappen heeft ondernomen om de verspreiding van nepnieuws in de nieuwsfeed te beperken, deed het tot woensdag weinig om desinformatie specifiek in groepen te bestrijden.

'Er is geen gezamenlijke inspanning om vals nieuws, verkeerde informatie of wat dan ook te verwijderen', vertelde een voormalige Facebook-medewerker die aan groepen werkte in januari aan Poynter. 'Het is zoveel erger omdat het daar zit en verborgen is ... het is net zo erg als een machine voor het genereren van valse nieuwsinformatie zoals het ooit was in de nieuwsfeed.'

Leonard Lam, een woordvoerder van Facebook-groepen, vertelde Poynter dat hetzelfde anti-misinformatiebeleid dat van toepassing is op producten zoals News Feed, van toepassing is op het hele platform. Dat betekent dat nepartikelen, afbeeldingen en video's die door de factcheckpartners van Facebook zijn ontkracht, worden weergegeven met de relevante factcheck eronder - zelfs in groepen.

Die signalen zullen ook worden gebruikt om te bepalen welke groepen herhalende desinformanten zijn, een van de eerste dingen die Facebook specifiek heeft gedaan om verkeerde informatie in groepen te bestrijden.

Hyperpartisan Facebook-groepen zijn de volgende grote uitdaging voor factcheckers

Crowdsourcing vertrouwen in nieuws

De aankondiging van woensdag komt op het moment dat Facebook zijn samenwerking met factcheckers over de hele wereld uitbreidt - misschien wel de meest zichtbare poging van het bedrijf om verkeerde informatie op het platform te bestrijden.

Facebook lanceerde het programma in december 2016 met Amerikaanse factcheckers zoals (Poynter-eigendom) PolitiFact, Snopes en Factcheck.org. Het doel: het identificeren, ontmaskeren en verkleinen van het bereik van valse nieuwsberichten op het platform. Zodra een hoax als onwaar is gemarkeerd, wordt het toekomstige bereik in de nieuwsfeed verminderd en wordt er een feitencontrole aan toegevoegd.(Openbaarmaking: ondertekenaar zijn van)Principiële code van Poynter's International Fact-Checking Networkis een noodzakelijke voorwaarde om deel te nemen aan het project.)

Sindsdien is hetis uitgebreidom factcheckers valse afbeeldingen en video's te laten ontkrachten. Het partnerschap is gegroeid tot 47 projecten die in 23 talen over de hele wereld schrijven. En hoewel projecten zoals Snopes en CBS om verschillende redenen zijn gestopt, hebben outlets zoals de Associated Press zijn onlangs uitgebreid hun inzet voor het programma.

Een nieuwe anti-misinformatiefunctie zou dat werk kunnen ondersteunen.

Hoe Facebook omgaat met verkeerde informatie, in één afbeelding

'Er zijn gewoon niet genoeg professionele factcheckers wereldwijd en, net als alle goede journalistiek, kost factchecking tijd', schreven Rosen en Lyons in de blogpost. 'Een veelbelovend idee om hun werk te ondersteunen, dat we sinds 2017 onderzoeken, is dat groepen Facebook-gebruikers verwijzen naar journalistieke bronnen om beweringen in mogelijk valse inhoud te bevestigen of tegen te spreken.'

CEO Mark Zuckerberg heeft dat idee uitgezonden in een Facebook-video in februari — iets meer dan een jaar later hij dreef het eerst . De beweging was niet populair onder journalisten, die zeiden dat gewone Facebook-gebruikers hun vooroordelen niet opzij kunnen zetten om geloofwaardige nieuwsuitzendingen te beoordelen.

Maar een nieuwe studie gepubliceerd in februari 2018 suggereert anders.

'Wat we ontdekten is dat, hoewel er echte meningsverschillen zijn tussen Democraten en Republikeinen over de reguliere nieuwskanalen, in principe iedereen - Democraten, Republikeinen en professionele factcheckers - het erover eens is dat de nep- en partijgebonden sites niet te vertrouwen zijn', zegt David Rand. , een universitair hoofddocent aan het Massachusetts Institute of Technology, in een persbericht .

Volgens de blogpost van woensdag zal Facebook het idee blijven onderzoeken door academici, feitencontrole-experts, journalisten en maatschappelijke organisaties te raadplegen.

'Elk systeem dat we implementeren, moet waarborgen hebben tegen gamen of manipulatie, het introduceren van persoonlijke vooroordelen en het beschermen van minderheidsstemmen', schreven Rosen en Lyons.

Crowdsourcing van betrouwbare bronnen op Facebook is niet zo vergezocht als je denkt

Meer context op Facebook

In het verleden hebben technologiebedrijven hebben zich tot websites gewend zoals Wikipedia om meer context te bieden over de bronnen die op hun platformen publiceren. Op woensdag kondigde Facebook een hele reeks nieuwe vergelijkbare indicatoren aan.

'We investeren in functies en producten die mensen meer informatie geven om hen te helpen beslissen wat ze willen lezen, vertrouwen en delen', schreven Rosen en Lyons in de blogpost.

Facebook heeft zijn contextknop bijgewerkt, gelanceerd in april vorig jaar, om informatie op te nemen van Het vertrouwensproject over het ethische beleid, eigendom en financieringsstructuur van uitgevers. Het bedrijf begint meer informatie weer te geven op het tabblad paginakwaliteit, wat: gelanceerd in januari om pagina-eigenaren te laten zien welke van hun berichten zijn ontkracht door de fact-checkingpartners van Facebook. En in Messenger voegt het bedrijf een geverifieerde badge toe om imitaties en oplichting te verminderen.

Facebook begint ook doorgestuurde berichten in Messenger te labelen - een tactiek die schijnbaar is geleend van zusterbedrijf WhatsApp, wat een soortgelijke functie uitgerold in juli in een poging de verspreiding van verkeerde informatie tegen te gaan.

WhatsApp lanceert een functie die doorgestuurde berichten labelt

Hoewel ze een gemakkelijke manier zijn om gebruikers meer informatie over uitgevers op sociale media te geven en zo te voorkomen dat ze verkeerde informatie delen, kunnen indicatoren zoals de contextknop van Facebook ook worden gebruikt.

In de zomer heeft iemand de Wikipedia-pagina van de Republikeinse Partij van Californië vernield om te zeggen dat ze het nazisme steunden. Hoewel de meeste gevallen van Wikipedia-vandalisme vrij snel worden opgemerkt, vond dit incident zijn weg naar Google, die aan de oppervlakte kwam de valse bewerking hoog in de zoekresultaten.

Dat is zeldzaam. Maar gezien de hoeveelheid bewerkingen die elke dag op Wikipedia worden aangebracht, kan het voor technische platforms moeilijk zijn om alle gevallen van vandalisme op te vangen.

'Natuurlijk is het een vrij zwakke manier om nepnieuws te bestrijden, omdat Wikipedia geen betrouwbare informatiebron is - zoals zelfs Wikipedia erkent', zegt Magnus Pharao Hansen, een postdoctoraal onderzoeker aan de Universiteit van Kopenhagen, vertelde Poynter in juni . 'Wikipedia is erg kwetsbaar voor hoaxes en bevat allerlei soorten verkeerde informatie, dus het is geen erg serieuze manier om het probleem van verzonnen nieuws te bestrijden.'

Wikipedia-vandalisme kan hoax-busting op Google, YouTube en Facebook dwarsbomen

Tegelijkertijd hebben functies zoals het tabblad paginakwaliteit van Facebook een meer demonstratief effect gehad op de verspreiding van verkeerde informatie.

Na Factcheck.org ontkracht een valse meme over de Amerikaanse vertegenwoordiger Alexandria Ocasio-Cortez (D-N.Y.) in maart, de pagina die de foto publiceerde verwijderde het . En het was niet de eerste keer; andere herhalende verkeerd informerende pagina's op Facebook inhoud hebben verwijderd ontkracht door de fact-checking partners van het bedrijf, en sommigen hebben hun activiteiten een nieuwe naam gegeven allemaal samen.

Correctie: In een eerdere versie van dit artikel is de achternaam van Leonard Lam verkeerd gespeld.