More

    De desinformatie en geweldsproblemen van Facebook zijn erger in India |

    Facebook-klokkenluider Frances Haugen’s lekken suggereren dat zijn problemen met extremisme in sommige gebieden bijzonder nijpend zijn. Documenten die Haugen aan de New York Times, Wall Street Journal en andere media heeft verstrekt, suggereren dat Facebook zich ervan bewust is dat het ernstige verkeerde informatie en geweld in India in de hand werkte. Het sociale netwerk beschikte blijkbaar niet over voldoende middelen om de verspreiding van schadelijk materiaal in het dichtbevolkte land aan te pakken en reageerde niet met genoeg actie toen de spanningen oplaaiden.

    Een casestudy uit begin 2021 wees uit dat veel van de schadelijke inhoud van groepen zoals Rashtriya Swayamsevak Sangh en Bajrang Dal niet werd gemarkeerd op Facebook of WhatsApp vanwege het gebrek aan technische knowhow die nodig was om inhoud te herkennen die in het Bengaals en Hindi is geschreven. Tegelijkertijd weigerde Facebook naar verluidt om de RSS te markeren voor verwijdering vanwege “politieke gevoeligheden”, en Bajrang Dal (gekoppeld aan de partij van premier Modi) was niet aangeraakt ondanks een interne Facebook-oproep om het materiaal te verwijderen. Het bedrijf had een witte lijst voor politici die waren vrijgesteld van fact-checking.

    Facebook had volgens de gelekte gegevens nog maar vijf maanden geleden moeite om haatzaaiende uitlatingen te bestrijden. En net als een eerdere test in de VS, toonde het onderzoek aan hoe snel de aanbevelingsengine van Facebook giftige inhoud suggereerde. Een nepaccount dat drie weken lang de aanbevelingen van Facebook volgde, werd onderworpen aan een “bijna constant spervuur” van verdeeldheid zaaiend nationalisme, verkeerde informatie en geweld.

    Net als bij eerdere primeurs zei Facebook dat de lekken niet het hele verhaal vertelden. Woordvoerder Andy Stone voerde aan dat de gegevens onvolledig waren en geen rekening hielden met factcheckers van derden die veel buiten de VS worden gebruikt. Hij voegde eraan toe dat Facebook zwaar had geïnvesteerd in technologie voor het detecteren van haatspraak in talen als Bengaals en Hindi, en dat het bedrijf die technologie bleef verbeteren.

    Het socialemediabedrijf volgde dit door een langere verdediging van zijn praktijken. Het voerde aan dat het een “leidend proces” had voor het beoordelen en prioriteren van landen met een hoog risico op geweld om de zes maanden. Het merkte op dat teams langetermijnproblemen en geschiedenis naast actuele gebeurtenissen en afhankelijkheid van zijn apps beschouwden. Het bedrijf voegde eraan toe dat het zich bezighield met lokale gemeenschappen, de technologie verbeterde en het beleid voortdurend “verfijnde”.

    De reactie loste echter niet direct enkele van de zorgen op. India is de grootste individuele markt van Facebook, met 340 miljoen mensen die gebruik maken van zijn diensten, maar 87 procent van Facebook’s budget voor verkeerde informatie is gericht op de VS. Zelfs met factcheckers van derden aan het werk, suggereert dat India niet een evenredige hoeveelheid aandacht krijgt. Facebook ging ook niet in op zorgen dat het op zijn tenen rond bepaalde mensen en groepen liep, verder dan een eerdere verklaring dat het zijn beleid handhaafde zonder rekening te houden met positie of associatie. Met andere woorden, het is niet duidelijk dat de problemen van Facebook met verkeerde informatie en geweld in de nabije toekomst zullen verbeteren.

    douchecabine

    Related Stories

    LAAT EEN REACTIE ACHTER

    Vul alstublieft uw commentaar in!
    Vul hier uw naam in

    Stay on op - Ge the daily news in your inbox

    [tdn_block_newsletter_subscribe input_placeholder="Email address" btn_text="Subscribe" tds_newsletter2-image="730" tds_newsletter2-image_bg_color="#c3ecff" tds_newsletter3-input_bar_display="" tds_newsletter4-image="731" tds_newsletter4-image_bg_color="#fffbcf" tds_newsletter4-btn_bg_color="#f3b700" tds_newsletter4-check_accent="#f3b700" tds_newsletter5-tdicon="tdc-font-fa tdc-font-fa-envelope-o" tds_newsletter5-btn_bg_color="#000000" tds_newsletter5-btn_bg_color_hover="#4db2ec" tds_newsletter5-check_accent="#000000" tds_newsletter6-input_bar_display="row" tds_newsletter6-btn_bg_color="#da1414" tds_newsletter6-check_accent="#da1414" tds_newsletter7-image="732" tds_newsletter7-btn_bg_color="#1c69ad" tds_newsletter7-check_accent="#1c69ad" tds_newsletter7-f_title_font_size="20" tds_newsletter7-f_title_font_line_height="28px" tds_newsletter8-input_bar_display="row" tds_newsletter8-btn_bg_color="#00649e" tds_newsletter8-btn_bg_color_hover="#21709e" tds_newsletter8-check_accent="#00649e" embedded_form_code="YWN0aW9uJTNEJTIybGlzdC1tYW5hZ2UuY29tJTJGc3Vic2NyaWJlJTIy" tds_newsletter="tds_newsletter1" tds_newsletter3-all_border_width="2" tds_newsletter3-all_border_color="#e6e6e6" tdc_css="eyJhbGwiOnsibWFyZ2luLWJvdHRvbSI6IjAiLCJib3JkZXItY29sb3IiOiIjZTZlNmU2IiwiZGlzcGxheSI6IiJ9fQ==" tds_newsletter1-btn_bg_color="#0d42a2" tds_newsletter1-f_btn_font_family="406" tds_newsletter1-f_btn_font_transform="uppercase" tds_newsletter1-f_btn_font_weight="800" tds_newsletter1-f_btn_font_spacing="1" tds_newsletter1-f_input_font_line_height="eyJhbGwiOiIzIiwicG9ydHJhaXQiOiIyLjYiLCJsYW5kc2NhcGUiOiIyLjgifQ==" tds_newsletter1-f_input_font_family="406" tds_newsletter1-f_input_font_size="eyJhbGwiOiIxMyIsImxhbmRzY2FwZSI6IjEyIiwicG9ydHJhaXQiOiIxMSIsInBob25lIjoiMTMifQ==" tds_newsletter1-input_bg_color="#fcfcfc" tds_newsletter1-input_border_size="0" tds_newsletter1-f_btn_font_size="eyJsYW5kc2NhcGUiOiIxMiIsInBvcnRyYWl0IjoiMTEiLCJhbGwiOiIxMyJ9" content_align_horizontal="content-horiz-center"]