Seleziona un paese
Seleziona il tuo paese per seguire i tuoi deputati locali
I paesi qui sotto non pubblicano contenuti nella tua lingua. Seleziona un paese se vuoi seguire le notizie in inglese o nella(e) lingua(e) nazioanle(i)
Lingua selezionata: Italiano
Cosa stai crcando?
20.01.2021
Posizione del gruppo PPE sulla legge sui servizi digitali (DSA)
Avviso importante
Questo documento e' stato tradotto automaticamente.
(A) Armonizzare le norme esistenti sulla rimozione dei contenuti illegali: mantenere il concetto generale alla base degli articoli 13/14 della direttiva sul commercio elettronico e le attuali procedure di notifica e azione (avviso e notifica, avviso e rimozione, avviso e sospensione) come requisito di base per tutte le piattaforme che forniscono servizi nel mercato unico digitale europeo. Armonizzare il più possibile queste regole in tutta Europa e concentrarsi su definizioni chiare e procedure efficaci. Tuttavia, le DSA dovrebbero anche andare oltre: le misure proattive proporzionali (ad esempio, strumenti automatizzati, politiche di recidiva, uso di segnalatori affidabili, invio di notifiche in massa, gestione dell'identità) per le piattaforme sono necessarie quando i contenuti illegali diventano sistemici, quando il carattere illegale dei contenuti è già stato stabilito (attraverso un avviso circostanziato o una decisione giudiziaria) o quando il tipo di contenuto e la sua natura di illegalità sono tali che la contestualizzazione non è necessaria. L'adozione di tali misure dovrebbe tuttavia essere accompagnata da adeguate garanzie per assicurare che le pratiche di moderazione dei contenuti siano proporzionate. In particolare, nei casi di incitamento al terrorismo, di discorsi di odio illegali, di materiale pedopornografico e di violazioni dei diritti di proprietà intellettuale, è necessario un forte approccio coordinato a livello europeo per garantire che i fornitori di servizi adottino misure efficaci per rimuovere i contenuti illegali dai loro servizi e per assicurare che tali contenuti rimangano inaccessibili dopo la loro rimozione.
(B) Contenuti dannosi: gli obblighi legali di rimozione dovrebbero riguardare solo i contenuti illegali, ovvero quelli non conformi al diritto dell'Unione o a quello di uno Stato membro. Nonostante ciò, i contenuti legali ma dannosi, come la disinformazione e l'informazione sulle cause o sui rimedi COVID-19, rimangono un problema serio. I contenuti dannosi meritano quindi un approccio (co)normativo mirato al di fuori delle DSA, al fine di separare chiaramente le procedure per affrontare i contenuti dannosi o illegali.
(C) Legislazione orizzontale: per garantire la massima chiarezza e coesione, la DSA dovrebbe essere un quadro orizzontale integrato dalla legislazione settoriale specifica esistente e futura, come la lex specialis (come il diritto d'autore, la TCO, la direttiva AVMSD, il GDPR, ecc.) Il legislatore deve evitare la collisione delle disposizioni e razionalizzare le definizioni nelle DSA e nelle rispettive legislazioni settoriali specifiche, riconoscendo non solo i principi generali delle disposizioni orizzontali, ma anche l'effetto dei requisiti specifici delle legislazioni sorelle, evitando così qualsiasi conseguenza indesiderata.
(D) Condizioni di parità: riconosce che non c'è nulla di illegale o di anticoncorrenziale nel costruire un'attività di successo, come fanno molte grandi piattaforme. Ritiene tuttavia che sia necessario differenziare ulteriormente le piattaforme (per quanto possibile dal punto di vista legale), poiché alcune di esse hanno sviluppato un eccessivo potere di mercato negli ultimi decenni e ne stanno abusando. Pertanto, non dovrebbero essere soggette alle stesse regole dei piccoli fornitori. Se è dimostrato che il benessere dei consumatori è eroso e l'innovazione è soffocata dalle "piattaforme gatekeeper" e se è dimostrato che esiste un potenziale per una maggiore concorrenza nei mercati digitali, che questi mercati non sono contendibili e che l'innovazione è soffocata dalle grandi piattaforme, allora saranno necessarie misure proporzionate. Oltre all'obiettivo di proteggere le start-up e le PMI europee, dobbiamo considerare, tra l'altro, le dimensioni o la portata delle piattaforme, in quanto ciò influisce sulla loro capacità di adottare misure proattive contro i contenuti illegali online.
(E) Piattaforme attive/passive: rivedere la classificazione del comportamento "attivo" o "passivo" incorporando le ultime sentenze della Corte di giustizia europea e razionalizzando la DSA con la direttiva sul copyright. La DSA dovrebbe inoltre valutare se questi tipi di piattaforme, come hosting o caching, siano ancora rilevanti, dal momento che il ruolo svolto dalle piattaforme oggi è diventato molto più complesso. La DSA dovrebbe considerare lo scopo del tipo di piattaforma e fornire definizioni, ruoli e responsabilità appropriate in tale contesto.
(F) Ambito di applicazione: estendere l'ambito di applicazione territoriale della DSA per coprire anche le attività delle imprese e dei fornitori di servizi stabiliti in Paesi terzi, purché offrano i loro servizi anche nel mercato unico digitale. Obbligare i fornitori di paesi terzi a designare un rappresentante legale per gli interessi dei consumatori nell'UE, sul modello del GDPR. Se una piattaforma importa prodotti nell'UE, deve sempre rispettare la legislazione dell'UE in materia di sicurezza dei prodotti, protezione dell'ambiente e dei consumatori, etichettatura o proprietà intellettuale, il tutto secondo il nostro "stile di vita europeo". Per consentire alle imprese europee di competere, innovare e crescere, è essenziale non gravarle di oneri amministrativi e normativi sproporzionati. Questo è particolarmente importante per le PMI che hanno margini ridotti e che sono già state fortemente colpite dall'attuazione del GDPR.
(G) Monitoraggio generale: mantenere il divieto di imporre un obbligo di monitoraggio generale (art. 15 della direttiva sul commercio elettronico). In combinazione con le nuove misure di trasparenza obbligatorie, le piattaforme dovrebbero tuttavia essere autorizzate e persino incoraggiate a utilizzare strumenti automatizzati per individuare volontariamente i contenuti palesemente illegali (ad esempio, chiarendo per legge che le piattaforme non sono responsabili se utilizzano misure automatizzate). La DSA potrebbe esplorare la possibilità di un'esenzione di responsabilità per le piattaforme in relazione alla loro attività nel campo della lotta ai contenuti illegali (tenendo conto anche del principio del buon samaritano statunitense).
(H) Supervisione: puntare a una piena armonizzazione europea degli obblighi giuridici in materia di procedure, garanzie procedurali, moderazione e trasparenza, comprese chiare responsabilità giuridiche e un'efficace applicazione transfrontaliera di tali responsabilità a livello UE. Poiché non tutti gli Stati membri sono adeguatamente attrezzati - sia in termini di strumenti che di competenze - per far rispettare tutti gli obblighi, la Commissione europea dovrà svolgere un ruolo forte nel supervisionare, coordinare e sostenere gli organismi nazionali di controllo dell'applicazione delle norme, al fine di garantire che nessun onere sproporzionato ricada sull'organismo di regolamentazione di uno o di un numero limitato di Stati membri. Il Gruppo PPE non è favorevole all'istituzione di una nuova agenzia se l'armonizzazione può essere realizzata attraverso una rete di organismi nazionali di applicazione simile alla rete europea della concorrenza (ECN). Gli obblighi di trasparenza devono includere l'uso e i codici sorgente dei processi algoritmici che gestiscono i contenuti. La conformità a questi requisiti aggiuntivi di trasparenza e spiegabilità non sarà verificata da società private, ma sarà di competenza delle autorità di vigilanza del mercato.
(I) Pubblicità mirata: la pubblicità mirata è disciplinata dal GDPR/ePrivacy/P2B. Alcune limitazioni aggiuntive nella DSA possono essere prese in considerazione quando il contesto è dannoso per la nostra democrazia e se non è ancora coperto da altre leggi. Ritiene che, in linea di principio, la pubblicità mirata possa avere un impatto economico e sociale positivo e sottolinea il fatto che la legislazione esistente deve essere pienamente e adeguatamente applicata per garantire il rispetto della privacy degli utenti. Il gruppo PPE non sostiene il divieto di pubblicità mirata.
(J) Responsabilità delle piattaforme/media/utenti: utilizzare le moderne tecnologie per identificare, in modo più efficace, come e da chi sono stati pubblicati i contenuti illegali, razionalizzando così la responsabilità della piattaforma. Il Gruppo PPE sostiene fermamente il diritto all'anonimato su Internet (come riconosciuto dal GDPR), ma allo stesso tempo rifiuta l'idea di non essere identificabili online (= ciò che è illegale offline, è illegale online). Per fare in modo che, pur mantenendo l'anonimato, ognuno sia digitalmente identificabile laddove ciò sia necessario, si dovrebbe creare un'identità digitale europea protetta, utilizzando, ad esempio, la tecnologia a catena di blocchi. Il livello di responsabilità delle piattaforme dovrebbe essere adeguato all'identificabilità degli utenti. La responsabilità delle piattaforme per il contenuto dei media che ospitano sarà ridotta quando i media (e quindi anche il loro contenuto) sono già regolamentati dagli Stati membri. Come compromesso, il Gruppo PPE potrebbe accettare che la DSA o un altro atto legislativo di prossima pubblicazione, come l'aggiornamento dell'eIDAS, che rende obbligatorio un sistema europeo di identità digitale per alcune piattaforme (ad esempio, vendita di beni fisici, servizi di eGovernance).
(K) Ordine giudiziario: stabilire una procedura chiara ed efficiente per la collaborazione con le forze dell'ordine e le autorità giudiziarie, assicurando che i contenuti illegali non vengano solo eliminati, ma anche seguiti dalle forze dell'ordine, e che le responsabilità delle piattaforme siano associate a misure di applicazione efficaci.
(L) Obblighi di comunicazione al pubblico: imporre alle piattaforme e alle autorità nazionali competenti di comunicare le loro azioni, puntando così a un'analisi strutturata della rimozione e del blocco dei contenuti illegali a livello europeo. Tali obblighi dovrebbero essere proporzionati e moderati per le PMI e le start-up e, allo stesso tempo, escludere le microimprese.
(M) Obblighi di trasparenza: imporre agli intermediari digitali (solo nei rapporti tra imprese), compresi i registratori di nomi di dominio, i fornitori di web hosting, i marketplace e gli inserzionisti online, l'obbligo di mettere in atto sistemi efficaci di "verifica dei clienti per conoscere la propria azienda". Inoltre, le piattaforme dovrebbero essere trasparenti per quanto riguarda la politica adottata nei confronti dei trasgressori recidivi.
1 available translation
Indice
6 / 54