Tsunami sulle Big Tech in europarlamento
La denuncia di tre eurodeputati contro otto società e gruppi di pressione: “Perseguono loschi interessi di lobby”. Chiesto il divieto di entrare nei Palazzi dell’Ue per incontrare politici, legislatori e diplomatici. Con l’introduzione del DMA e del DSA le aziende tecnologiche che non rimuovono i contenuti illegali o manipolati rischiano multe multimiliardarie
Google, Meta Amazon hanno compiuto pressioni indebite attraverso organizzazioni di facciata più piccole. E’ quanto affermano i legislatori Paul Tang, René Repasi e Christel Schaldemose, che lo scorso giovedì hanno presentato denunce contro otto società e gruppi di pressione, chiedendo che alle aziende coinvolte sia vietato di impegnarsi con le istituzioni dell’Unione europea e di entrare nei palazzi dell’UE per incontrare politici, legislatori e diplomatici. I dettagli sulle azioni intraprese contro le Big Tech sono stati resi noti da Politico.
I deputati hanno chiesto un’indagine su Google, Meta e Amazon, e anche su diversi gruppi di pressione come l’associazione di categoria tecnologica Computer & Communications Industry Association (CCIA) e il gruppo di inserzionisti IAB Europe. Altre tre lobby che rappresentano le piccole e medie imprese – SME Connect, Allied for Startups e Connected Commerce Council – sono anch’esse state denunciate.
Secondo quanto reso pubblico, le aziende tecnologiche hanno ingannato i legislatori europei durante i negoziati sul Digital Markets Act (DMA) e il Digital Services Act (DSA), nascondendosi dietro lobby che rappresentavano piccole e medie imprese, a cui avrebbero fornito finanziamenti e istruzioni. Nel frattempo, le lobby avrebbero “finto di essere i rappresentanti ufficiali delle PMI” mentre promuovevano e difendevano gli interessi commerciali delle Big Tech” omettendo le loro connessioni.
“Questo è un gioco scorretto che viola l’intera trasparenza sul lobbismo. Devi identificarti, dobbiamo sapere come eurodeputati o come altri funzionari dell’Unione europea con chi abbiamo a che fare”, ha detto l’eurodeputato Paul Tang. Il DMA e il DSA, che sono stati adottati quest’anno, imporranno nuovi requisiti per limitare il potere di mercato delle grandi piattaforme tecnologiche, arginare la diffusione di contenuti illegali online e limitare gli annunci mirati. In caso di violazioni, le grandi aziende tecnologiche potrebbero dover affrontare multe multimiliardarie.
Rec News dir. Zaira Bartucca – recnews.it recensioni
Se ti è piaciuto questo articolo segui il nostro Canale Whatsapp
TECH
Pasticcio Ue
sull’AI Act
Il 13 marzo 2024 il Parlamento europeo ha approvato l’AI Act. Cosa cambierà? Secondo gli avvocati Lydia Mendola, Luca Tormen e Francesca Ellena, l’iter legislativo in realtà non è ancora completo e per la sua piena applicabilità ci vorranno alcuni anni, con la conseguenza che la norma nasca obsoleta.
“Il testo dell’AI Act – affermano gli avvocati – è tuttora soggetto a un controllo finale e manca l’approvazione del Consiglio europeo. Anche i tempi di entrata in vigore degli obblighi e delle sanzioni previsti dal testo di legge non sono immediati, posto che l’AI Act entrerà in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale e sarà pienamente applicabile solo 24 mesi dopo la sua entrata in vigore, ad eccezione di alcune previsioni che prevedono tempistiche ancora più lunghe: le previsioni sulle applicazioni AI vietate (6 mesi dopo la data di entrata in vigore); le previsioni sui codici di condotta (9 mesi dopo l’entrata in vigore); le regole AI di portata generale, compresa la governance (12 mesi dopo l’entrata in vigore) e gli obblighi per i sistemi AI ad alto rischio (36 mesi dopo l’entrata in vigore). E proprio questa scaletta temporale ha sollevato alcuni commenti negativi, perché la norma rischierebbe di nascere obsoleta.”
Chi sono i destinatari del Regolamento?
“Sono gli sviluppatori/fornitori (providers), i distributori, i produttori, gli importatori di sistemi di intelligenza artificiale, anche con sede fuori dall’Unione europea purché utilizzino dati di soggetti residenti nel territorio europeo o offrano servizi a questi ultimi (si parla di efficacia extra-territoriale del Regolamento). Ci sono poi previsioni anche per gli utilizzatori (deployers) di sistemi di intelligenza artificiale.”
Quali sono gli obblighi di natura tecnica in capo ai soggetti interessati?
“Essenzialmente, la maggior parte degli obblighi sono posti a carico dei provider di sistemi di AI. Ad esempio, sono i provider di sistemi di general purpose AI a dover soddisfare gli obblighi di disclosure previsti dal Regolamento (e.g. pubblicazione dei contenuti usati per il training per le verifiche copyright, messa disposizione di documentazione tecnica e istruzioni per l’uso), così come sono i provider di sistemi di AI ad alto rischio a dover condurre valutazioni di rischio, assicurare supervisione umana dei sistemi e gestire le richieste di informazioni dei cittadini. Le sanzioni previste per Il mancato rispetto di questa normativa sono significative. A seconda della gravità della violazione, è infatti previsto che le sanzioni varino in un range tra 10 e 40 milioni di euro o tra il 2% e il 7% del fatturato annuo globale dell’azienda.”
Se ti è piaciuto questo articolo segui il nostro Canale Whatsapp
TECH
Amazon umanizza Alexa per l’8 marzo
Ogni giorno Alexa – l’assistente vocale di Amazon – riceve diverse richieste e a quanto pare anche insulti. Un’indagine condotta nell’ambito di una partnership con ActionAid racconta che in molti oltre a interrogarla la fanno diventare bersaglio di frasi poco gradevoli. E, per quanto Alexa sia un oggetto inanimato privo di identità e coscienza, Amazon ha pensato di approfittare della ricorrenza dell’8 marzo per “farla rispondere alle offese”. Un’idea che a detta della Big Tech contribuirà ad arginare la violenza verbale contro le donne.
“Si parla di violenza verbale – dicono i promotori dell’iniziativa – quando gli attacchi rivolti a una persona diventano regolari e sistematici. La violenza verbale può essere agita nella sfera pubblica (in cui è compreso anche lo spazio online) e privata e può includere atteggiamenti umilianti, ridicolizzanti, uso di parolacce, insulti e minacce nei confronti della vittima e dei suoi cari, ma può avere come oggetto anche religione, cultura, lingua, orientamento sessuale della vittima. A seconda delle aree emotivamente più sensibili della vittima, l’autore di violenza sceglie consapevolmente quale argomento utilizzare per agire violenza”.
Da qui, l’idea di permettere ad Alexa di “rispondere” agli insulti. Succederà a partire da oggi, 8 marzo, quando “Alexa risponderà a tono”, fanno sapere da Amazon , “sottolineando come la violenza verbale sia in grado di lasciare un’impronta su chi ne diventa oggetto“. Non solo: pronunciando le parole “Alexa, dì la tua”, partiranno dei messaggi preimpostati per “ascoltare informazioni e approfondimenti legati al fenomeno della violenza”.
Se ti è piaciuto questo articolo segui il nostro Canale Whatsapp
TECH
L’orrore dentro Gaza e la tecnologia omicida. Così l’IA fabbrica 100 obiettivi militari al giorno
L’uso dell’intelligenza artificiale in campo militare sta sollevando importanti questioni etiche, a partire dall’utilizzo da parte di Israele nei raid. Prima dell’utilizzo dell’IA nei conflitti, aveva spiegato lo scorso anno in una intervista ad Ynet il capo del personale delle Idf Aviv Kochavi, gli obiettivi militari generati erano circa 50 all’anno. Adesso si arriva senza difficoltà a 100 obiettivi militari al giorno. Questo aumento esponenziale e questo utilizzo fuori controllo della tecnologia sono la causa, rileva Lorenzo Forlani dalle colonne del Fatto Quotidiano, di una vera e propria “fabbrica di omicidi di massa“.
L’IA è uno strumento potente per la generazione di obiettivi militari sfruttato dalle intelligence di tutto il mondo. Attraverso complessi algoritmi di riconoscimento delle immagini e di analisi dei dati, i sistemi basati sull’Intelligenza Artificiale possono identificare in modo rapido e preciso possibili bersagli. Grazie alla loro rapidità di elaborazione, questi algoritmi possono generare una quantità impressionante di obiettivi militarmente sensibili ogni giorno. E’ chiaro, però, che l’IA non è in grado di tenere conto – né mai lo sarà – dei risvolti etici, di comprendere quali siano i risultati degli attacchi e di considerare i danni gravissimi e spesso letali che si infliggono a intere popolazioni.
L’uso dell’IA nella generazione di obiettivi militari solleva infatti preoccupazioni legate alla responsabilità e all’impatto umanitario. Le decisioni relative all’utilizzo di obiettivi militari generati tramite IA richiedono un’adeguata ponderazione delle conseguenze e delle implicazioni reali. Mentre l’IA può fornire informazioni utili per guidare le operazioni militari o prevenirle, la decisione di agire deve ancora appartenere agli esseri umani, in modo da garantire il rispetto per i diritti umani e dei trattati internazionali e la sicurezza dei civili.
Se ti è piaciuto questo articolo segui il nostro Canale Whatsapp
TECH
Il boomerang del politicamente corretto si ripercuote su Google
Nuova tegola sulla Big Tech Google, che dopo le multe per abuso di posizione dominante e per la mancata rimozione dei contenuti illeciti dovrà pagare un altro milione di dollari. Il motivo è paradossale, se si pensa che il colosso tecnologico arcobaleno – che sostiene di difendere i diritti delle persone – dopo una causa intentata nei suoi confronti dovrà sborsare questa cifra di tutto rispetto per aver discriminato una donna. Colpevole, forse, di non rappresentare le categorie che l’azienda gradisce maggiormente.
Si tratta di Ulku Rowe (nell’immagine) l’esecutivo di Google Cloud che ha citato in giudizio l’azienda per aver favorito l’ascesa degli uomini, “dando loro – scrive Player.it – maggiori stipendi e garantendo loro promozioni nonostante non fossero portati per i ruoli garantiti. La giuria che ha presieduto al processo ha dato ragione alla donna e per questo Google deve a lei sia i danni materiali, sia quelli emotivi. A peggiorare la situazione ci ha anche pensato la compagnia, che prima del processo pare l’abbia pure trattata male”.
Definitivo il commento della legale di Ulku Rowe, Cara Green, che ha sottolineato come “tante grandi aziende si siano create un’aurea di inclusione solo di facciata, che nel concreto si è rivelata completamente falsa”.
Se ti è piaciuto questo articolo segui il nostro Canale Whatsapp
-
RN WALLArticolo
L’importanza
della valutazione
di impatto generazionale -
ESTERIArticolo
Scandali, presunti decessi, arrivi e partenze. Il lavorìo per far cadere la Monarchia in Gran Bretagna
-
ATTUALITA'Articolo
Prove scritte concorso insegnanti, i primi dati del ministero
-
POLITICAArticolo
Truppe europee a Kiev, Tajani chiarisce la posizione dell’Italia