«Così la proposta europea del Digital Services Act può proteggere Wikimedia o esporla continuamente ai troll»

Un’anteprima sui lavori del bando “wiki teatro libero”
14 Gennaio 2021
Buon compleanno OpenStreetMap Italia!
1 Febbraio 2021
Show all

«Così la proposta europea del Digital Services Act può proteggere Wikimedia o esporla continuamente ai troll»

La posizione della Wikimedia Foundation sul DSA: Cauto ottimismo, ma anche preoccupazione per il rafforzamento di chi agisce in cattiva fede

La Commissione europea ha recentemente pubblicato la sua proposta per il Digital Services Act (DSA), una legge che cambierà le basi legali della vita online in Europa e, per estensione, nel mondo. Una delle componenti principali della proposta crea una serie di obblighi per gli host online, categoria che include la Wikimedia Foundation nel suo ruolo di host di Wikipedia.

L’attuale legge sulla responsabilità degli host, disciplinata dall’articolo 14 della direttiva e-Commerce, afferma che gli host online non sono responsabili di ciò che i loro utenti pubblicano se non sono a conoscenza di eventuali attività illegali e se agiscono una volta che lo sanno. L’articolo 15, al contempo, afferma che un host non può essere legalmente obbligato a monitorare i propri servizi, a caccia di ogni attività potenzialmente illegale dei propri utenti. 

Ci sarebbe molto da analizzare e considerare nella proposta del DSA, ma vorremmo condividere alcune prime impressioni. Prima di tutto siamo lieti di vedere che il DSA conserva le disposizioni della direttiva e-Commerce, che garantiscono alla Fondazione di poter continuare a ospitare la conoscenza di innumerevoli editori e contributori. Piattaforme uniche gestite dagli utenti come Wikipedia prosperano quando le responsabilità degli intermediari siano fortemente protette, cosa che siamo lieti di vedere riconosciuta dalla Commissione. Inoltre, ci sono anche molte nuove disposizioni nel DSA intese a incoraggiare una moderazione dei contenuti più efficace e reattiva. Mentre alcune di queste migliorano la trasparenza, per esempio rendendo più facile per le persone capire perché vedono una certa informazione, e intendono promuovere diritti fondamentali, ce ne sono anche altre che, se applicate male, potrebbero effettivamente acuire alcuni aspetti negativi di Internet.

In particolare, le nostre preoccupazioni iniziali si concentrano su due aspetti. Il primo è parte dell’articolo 12, che afferma che un servizio online deve rendere pubblici nei propri termini di servizio le regole e gli strumenti utilizzati per la moderazione dei contenuti. Sebbene concordiamo sul fatto che i termini di servizio debbano essere il più chiari e trasparenti possibile, la nostra preoccupazione risiede in un linguaggio come quello dell’articolo 12.2, che afferma che i servizi online devono applicare e far rispettare le proprie condizioni “in modo diligente, obiettivo e proporzionato.” Questo è un obiettivo ideale, ma temiamo che “diligente, obiettivo e proporzionato” possa significare cose molto diverse a seconda dell’interpretazione e che le piattaforme gestite dalle comunità sarebbero danneggiate da standard poco chiari e assenza di discrezionalità. I termini di utilizzo (come i termini della Fondazione o addirittura il Codice di Condotta Universale dei progetti Wikimedia) spesso includono disposizioni che vietano cose chiaramente dannose ma spesso difficili da definire e persino specifiche di una particolare piattaforma come molestie, comportamenti di disturbo o trolling. A che punto un moderatore o un utente litigioso penserebbe che un certo volume di trolling significhi che un servizio non sia “diligente” nel far rispettare la sua regola “non trollare altri utenti”? O cosa succede quando qualcuno i cui post vengono moderati, o che pensa che il comportamento di qualcun altro debba essere moderato, decide che i moderatori non sono “obiettivi”? Certamente queste situazioni si verificano abbastanza spesso, ma di solito non danno luogo a dispute legali. Con la norma proposta in essere, siamo preoccupati che l’incertezza provocata da cosa debba essere una moderazione “diligente, oggettiva e proporzionata” possa portare gli utenti scontenti ad avviare cause gravose, nell’attesa che il mondo ottenga una guida più definitiva e uniforme dalla Corte di Giustizia europea. Teniamo presente che ciò sta avvenendo nel contesto di una sfera dell’informazione alle prese con dibattiti condotti in cattiva fede, motivati da innumerevoli argomenti e ben finanziati, nonché con disinformazione e teorie del complotto. E il numero degli utenti scontenti non farà che aumentare. 

L’altra preoccupazione che vogliamo sollevare riguarda l’articolo 14, secondo il quale si presume che un provider online sia a conoscenza di contenuti illegali – e quindi ne sia responsabile – dal momento in cui un soggetto qualunque ne notifichi l’esistenza. Ci sono molti e diversi modi in cui l’ambiguità in questa sezione può creare problemi, per esempio questa forma di responsabilizzazione del provider verso il monitoraggio delle notifiche di contenuti illegali sarebbe potenzialmente in contraddizione con l’articolo che si propone invece di non imporre agli stessi di monitorare i propri contenuti. Ad esempio, se la Fondazione ricevesse una notifica da parte di un soggetto che sostenesse di essere stato diffamato in un articolo, di cosa sarebbe responsabile la Fondazione se la presunta diffamazione fosse menzionata o diffusa in più articoli, o pagine di discussione, che il soggetto potrebbe non aver specificato? Occorre fare molta più chiarezza su questa disposizione se si vuole che funzioni come previsto e non costituisca un onere ingiustamente elevato per le piattaforme.

Infine vogliamo assicurarci che la particolare struttura, la missione, il funzionamento e l’autogoverno della comunità dei progetti Wikimedia e di altre piattaforme partecipative siano presi in considerazione in questo atto legislativo che è stato probabilmente progettato considerando diversi tipi di piattaforme. Vediamo ancora alcune lacune e omissioni nella proposta della Commissione, ma non vediamo l’ora di collaborare con i colleghi e i membri del movimento Wikimedia in Europa (con particolare plauso all’instancabile lavoro del Free Knowledge Advocacy Group EU) per lavorare con i legislatori al fine di garantire che la legge possa sostenere e promuovere quel tipo di spazio libero, aperto, collaborativo e collegiale che è il meglio del movimento Wikimedia.

Sherwin Siy, Lead Public Policy Manager, Wikimedia Foundation
Allison Davenport, Senior Public Policy Counsel, Wikimedia Foundation
Jan Gerlach, Lead Public Policy Manager, Wikimedia Foundation

Traduzione dell’articolo del 23 dicembre 2020: Early Impressions: How Europe’s Proposed Digital Services Act Can Preserve Wikimedia, or Let it Get Constantly Trolled a cura di Mattia Nappi.

Nell’immagine: By Government of Jamaica — Ministry of Transport and Works – The Traffic Control Devices Manual of Jamaica, Public Domain via Wikimedia Commons