Compensatie Voor Het Sterrenbeeld
Substability C Beroemdheden

Ontdek De Compatibiliteit Door Zodiac Sign

Wikipedia-vandalisme kan hoax-busting op Google, YouTube en Facebook dwarsbomen

Feiten Controleren

Heel even steunde de Californische Republikeinse Partij het nazisme. Tenminste, dat is wat Google zei.

Dat komt omdat iemand op 31 mei de Wikipedia-pagina voor de partij heeft vernield om 'nazisme' te vermelden naast ideologieën als 'conservatisme', 'marktliberalisme' en 'fiscaal conservatisme'. De fout is verwijderd uit de zoekresultaten, met Google verduidelijking aan Vice News dat de zoekmachine het vandalisme in het Wikipedia-item niet had opgevangen.

Google heeft lang aangetrokken de online encyclopedie voor het toevoegen van basisinformatie aan zoekresultaten. Volgens het bewerkingslogboek voor de Californische GOP-pagina, iemand heeft 'nazisme' toegevoegd naar de ideologiesectie van de partij op 31 mei rond 7.40 UTC. De bewerking werd binnen een minuut verwijderd, maar het lijkt erop dat het algoritme van Google de pagina net op tijd voor de nep heeft geschraapt.

'Soms vernielen mensen openbare informatiebronnen, zoals Wikipedia, wat van invloed kan zijn op de informatie die wordt weergegeven in zoekopdrachten', vertelde een woordvoerder van Google aan Poynter in een e-mail. 'We hebben systemen die vandalisme opvangen voordat het de zoekresultaten beïnvloedt, maar af en toe komen er fouten door, en dat is wat hier gebeurde.'

De Wikimedia Foundation, een non-profitorganisatie die Wikipedia beheert, heeft ook een verklaring afgegeven op Twitter.

Volgens Google is meer dan 99,9 procent van de Wikipedia-bewerkingen die worden weergegeven in Knowledge Panels, die basisinformatie over doorzoekbare zoekwoorden bovenaan de resultaten weergeven, geen vandalisme. De gebruiker die de originele bewerking op de Californische GOP-pagina heeft geschreven geen gebruikersprofiel gebruikt , waardoor ze moeilijk op te sporen zijn.

dat is een gemeenschappelijke tactiek onder mensen die Wikipedia-pagina's vernielen, een praktijk die de non-profitorganisatie heeft uitgebreid gedocumenteerd . Maar gezien het grote aantal bewerkingen dat op Wikipedia wordt gedaan — ongeveer 10 per seconde , met 600 nieuwe pagina's per dag - en het feit dat Facebook en YouTube ze nu gebruiken om berichten meer context te geven, is het potentieel voor en het effect van misbruik groot.

'Natuurlijk is het een vrij zwakke manier om nepnieuws te bestrijden, omdat Wikipedia geen betrouwbare bron van informatie is - zoals zelfs Wikipedia erkent,' zei Magnus Pharao Hansen , een postdoctoraal onderzoeker aan de Universiteit van Kopenhagen, in een bericht aan Poynter. 'Wikipedia is erg kwetsbaar voor hoaxes en bevat allerlei soorten verkeerde informatie, dus het is geen erg serieuze manier om het probleem van verzonnen nieuws te bestrijden.'

Hansen is al ongeveer 10 jaar bezig met het bewerken van Wikipedia-pagina's en zei dat vandalisme gemeengoed is op het platform. Het aantal redacteuren is afgenomen in de afgelopen jaren, terwijl online aanhangers hebben steeds meer gericht op het platform - een probleem dat kwam tot een hoogtepunt tijdens de Gamergate-controverse in 2014. Het is in wezen een getallenspel.

Dat is verre van waar Wikipedia was in 2005 , toen uit een onderzoek bleek dat het ongeveer net zo nauwkeurig was als Britannica. En het maakt het voor vrijwillige redacteuren moeilijker om vandalisme op grote schaal te bestrijden op Wikipedia, wat niet veel goeds belooft om het te gebruiken om verkeerde informatie op andere platforms te bestrijden.

'Er staat zeker veel verkeerde informatie op Wikipedia, en veel zal blijven', zei Hansen. “Vaak schrijft iemand een artikel en het kan jaren duren voordat iemand langskomt om het te redigeren. Mensen doen geen feitencontroles, tenzij iets eruitziet alsof het echt niet op zijn plaats is.”

Een verzonnen Wikipedia-artikel woonde tien jaar op de site voordat het in 2015 werd verwijderd.

Tegelijkertijd is het platform bestand gebleken tegen het soort hoaxes dat regelmatig viraal gaat Facebook en Twitter . Wikimedia schattingen dat ongeveer 2,5 procent van de dagelijkse bewerkingen vandalisme zijn, en Samantha Lien, een communicatiemanager voor Wikimedia, wees op een algoritme dat automatisch twijfelachtige bewerkingen markeert als een belangrijk succes voor zijn integriteitsinspanningen.

'Artikelen hebben de neiging om een ​​evenwichtige weergave van de feiten te geven, en de site is tot nu toe bestand tegen nepnieuws en verkeerde informatie', vertelde ze Poynter in een e-mail. 'We hebben de afgelopen jaren ook samengewerkt met vrijwillige redacteuren om moderatietools te bouwen en te verbeteren om vandalisme op Wikipedia snel te identificeren en aan te pakken.'

Afgezien van de eigen beperkingen van Wikipedia, zijn de eigen systemen van technische platforms vaak het onderwerp van fouten en controverse, vooral kennispanels.

Ook op 31 mei een zoektocht naar een Donald Trump-ondersteunende Republikeinse senator in North Carolina een afbeelding opgedoken van haar met 'onverdraagzaamheid' geschreven over de bodem. In januari ontdekte The Daily Caller dat Google ten onrechte feitencontroles toevoegde aan de inhoud en niet aan die van andere verkooppunten. Dat bracht het technologiebedrijf ertoe de functie op te schorten totdat de bugs waren opgelost.

Google vertelde Poynter dat het de zoekresultaten niet handmatig wijzigt om de voorkeur van de ene partij boven de andere te tonen. Maar de algoritmen worden regelmatig bespeeld door bedrog , nep advertenties en trollen die zoekresultaten willen wijzigen. En die problemen kunnen zich uitstrekken tot andere platforms die naar Wikipedia linken.

'Wanneer meer mediaplatforms inhoud van Wikipedia kritiekloos gebruiken, verhoogt dat de inzet - zowel voor degenen die zouden misleiden of hoaxen als voor degenen die kennis zouden verspreiden,' zei Hansen. 'Ik denk dat, vooral als je naar Wikipedia linkt vanuit YouTube-video's over complottheorieën, dat het effect kan hebben dat je de verkeerde menigte aantrekt.'

In maart, YouTube aangekondigd dat het rechtstreeks zou linken naar Wikipedia-pagina's in videobeschrijvingen om meer context te bieden en virale samenzweringstheorieën te ontkrachten, die gaan vaak viraal na het breken van nieuwsgebeurtenissen. Die 'informatie-aanwijzingen' - die op het platform werden geïntroduceerd zonder medeweten van Wikipedia — zal een korte regel over de bron en een link naar de Wikipedia-pagina bevatten.

Die functie is nog niet uitgerold, maar YouTube heeft in februari een soortgelijke geïntroduceerd die meer context biedt aan nieuwsorganisaties die geld ontvangen van de Amerikaanse overheid.

Youtube

(Screenshot van YouTube)

Gezien de toegenomen zichtbaarheid van Wikipedia-pagina's, is het denkbaar dat vandalen naar het platform toestromen om met één bewerking meerdere platforms te trollen.

“Wikipedia 'hacken' is altijd een probleem geweest, maar het was een probleem dat alleen lezers van Wikipedia echt trof. Nu is het zelfs nog gevaarlijker omdat de platforms steeds meer automatisch uit Wikipedia trekken”, zegt Claire Wardle, uitvoerend directeur van First Draft, in een e-mail aan Poynter. 'Voor agenten van desinformatie die maximale versterking willen, biedt elke techniek die ervoor zorgt dat platforms of redacties zullen herhalen en daarom een ​​onwaarheid legitimeren, een onevenredig 'return on investment'.'

Ondanks dat het als bron voor meer platforms dient, heeft Wikipedia geen toename van vandalisme gezien, zei Lien. Maar als je ziet hoe de toevoegingen de organisatie overrompelden, is het onzeker hoe ze de integriteit van Wikipedia-pagina's precies zullen beïnvloeden.

'De trend dat technologiebedrijven Wikipedia gebruiken om problemen met desinformatie op hun eigen platforms aan te pakken, is nieuw terrein voor ons, en we weten niet wat de volledige implicaties zullen zijn', zei ze. “Op de korte termijn houden we nauwlettend in de gaten hoe dit Wikipedia en onze wereldwijde gemeenschap van vrijwilligers beïnvloedt. We hebben tot nu toe niets gezien dat zou wijzen op een groter probleem van vandalisme.”

Maar zelfs als er een toename zou zijn van Wikipedia-vandalisme met de bedoeling de resultaten op de platforms te veranderen, zei Lien dat de organisatie er geen idee van zou hebben.

'We hebben geen gegevens beschikbaar die wijzen op trends in vandalisme met de expliciete bedoeling om andere platforms te manipuleren', zei ze.

Dus hoe waarschijnlijk is het dat er meer verkeerde informatie op andere platforms terechtkomt? Joseph Reagle, een universitair hoofddocent communicatie aan de Northeastern University en een Wikipedia-expert, vertelde Poynter dat hoewel er geen manier is om te weten zonder de juiste monitoringsystemen, de structuur die is opgezet desinformatie zichtbaarder kan maken - zelfs als het niet is gemaakt om te gamen platformen als Google en Facebook.

'Ja, dit is waarschijnlijk, en ik denk dat het nog waarschijnlijker zal worden naarmate deze bedrijven met winstoogmerk op de kar blijven springen', zei hij. “In het geval van Google denk ik niet dat het de bedoeling van de bewerking was om de downstreamgebruikers van Wikipedia te vervuilen, maar dat was nog steeds het effect. Het feit dat Wikipedia door deze downstream-aggregators wordt gebruikt, maakt Wikipedia ook meer een doelwit, wat een punt van zorg is.”

Toch, hoewel het krimpt, heeft Wikipedia nog steeds een toegewijde gemeenschap van redacteuren die hebben Jarenlange ervaring omgaan met artikelen over het laatste nieuws. Nathan Matias, een postdoctoraal onderzoeksmedewerker aan de Princeton University, vertelde Poynter in een e-mail dat verkeerde informatie waarschijnlijk niet vaak door de kieren glipt vanwege die gemeenschap.

Maar aan de rand van het terrein neemt die kans flink toe.

'In breaking news-zaken, waar allerlei soorten activisten manieren hebben ontwikkeld om platformalgoritmen sneller dan de journalistiek te beïnvloeden, verwacht ik dat Wikipedia veerkrachtiger zal zijn tegen beïnvloeding', zei hij. 'De risico's voor Wikipedia en voor platforms zullen groter zijn in de marge van kennis en aandacht, omdat het moeilijker is om een ​​kleine stroom mensen te herkennen die toegang hebben tot onopvallend extremistisch materiaal.'

Ondanks de uitdagingen beschouwen sommige experts technische platforms die linken naar Wikipedia-pagina's als een stap voorwaarts om online desinformatie tegen te gaan.

Eni Mustafaraj, een assistent-professor computerwetenschappen aan het Wellesley College, vertelde Poynter in een e-mail dat de toevoeging van Wikipedia aan grote technische platforms een positieve stap is. Maar het komt met kanttekeningen.

'Ze moeten dit consequent doen, en niet alleen om verkeerde informatie, bedrog of complottheorieën te bestrijden', zei ze. 'Om verkeerde informatie te bestrijden, moeten we Facebook en Google niet de leiding geven, want zij waren het die het probleem in de eerste plaats verergerden.'

Tegelijkertijd kan het inherent verwarrend zijn voor lezers wanneer informatie van Wikipedia van het platform wordt gehaald. Hansen zei dat het zien van links naar de site vanaf sociale-mediaplatforms, zelfs als ze goed gelabeld zijn, niet hetzelfde soort scepticisme zal opwekken dat intrinsiek is bij Wikipedia-gebruikers.

“De lezer weet niet dat dit van Wikipedia komt. Dat soort introduceert een laag waar je niet zeker kunt zijn van de bron van de informatie, 'zei hij. 'Mensen zijn sceptisch als ze op Wikipedia zijn - je kunt zien wanneer er geen bron is ... wanneer je op een ander platform bent, ben je niet alert op dat soort dingen.'

Dan is er de kwestie van bandbreedte. Aangezien de redactie steeds kleiner wordt, zou Wikipedia kunnen overwegen om fulltime medewerkers in dienst te nemen, wiens taak het is om vandalisme in de gaten te houden en ervoor te zorgen dat het zich niet naar andere platforms verspreidt. Hansen zei dat hij denkt dat de non-profitorganisatie een interne fact-checking-eenheid zou moeten creëren of deskundige redacteuren en academici zou moeten vragen om mee te denken over enkele van de meer genuanceerde pagina's.

'Ik denk dat dat de enige manier is om desinformatie op Wikipedia te bestrijden', zei hij.

Lien suggereerde op zijn minst dat technische platforms die Wikipedia gebruiken om verkeerde informatie tegen te gaan op de een of andere manier iets teruggeven aan de non-profitorganisatie - een punt dat Katherine Maher, uitvoerend directeur van Wikimedia, betoogde. een recent artikel voor Wired . (Facebook en YouTube zijn niet inbegrepen onder de belangrijkste weldoeners van Wikimedia.)

'We moedigen bedrijven die de inhoud van Wikipedia gebruiken aan om terug te geven in dezelfde geest van duurzaamheid', zei ze. 'Door dit te doen, zouden ze zich aansluiten bij de miljoenen individuen die meehelpen om Wikipedia sterk en bloeiend te houden.'

En Matias was het daarmee eens.

'Als bedrijven verwachten te kunnen rekenen op enorme hoeveelheden onbetaalde en vaak psychologisch belastende arbeid van Wikipedianen en de Wikimedia Foundation om een ​​aantal van hun moeilijkste problemen aan te pakken, moeten ze manieren vinden om dat werk te ondersteunen en tegelijkertijd de intellectuele onafhankelijkheid van Wikipedia te beschermen', zei hij.