Il suo consiglio di sorveglianza Meta è al centro della gestione di una recente difficile situazione derivante dalla diffusione di immagini pornografiche create utilizzando l'intelligenza artificiale (AI) sulle piattaforme Facebook e Instagram. Le immagini in questione raffigurano donne note, ma il Consiglio ha deciso di non rivelarne i nomi per evitare ulteriori ripercussioni.
La sfida che Meta, e quindi l’Organismo di Vigilanza, deve affrontare è il confine sempre più labile tra contenuti veri e falsi a causa dell’evoluzione dell’intelligenza artificiale. I deepfake, ovvero video e immagini pornografici creati utilizzando l’intelligenza artificiale, sono diventati sempre più difficili da identificare dal contenuto reale.
L’esempio di Elon Musk, che ha bloccato temporaneamente le ricerche delle immagini di Taylor Swift, evidenzia la gravità del problema. La necessità di misure preventive è imperativa, con alcuni membri del settore che chiedono addirittura un intervento legislativo per contrastare i deepfake e responsabilizzare le aziende tecnologias.
Il Consiglio di Sorveglianza di Meta è impegnato ad affrontare queste sfide, utilizzando i due casi di immagini pornografiche come occasione per valutare l'efficacia delle politiche e delle pratiche di applicazione della legge da parte dell'azienda. Allo stesso tempo Meta riconosce l'importanza della collaborazione con enti esterni e dell'attuazione di norme chiare per la tutela dei propri utenti.
Si prevede che l’evoluzione dell’intelligenza artificiale porrà ulteriori sfide nel mondo digitale. Tuttavia, la determinazione e la costante vigilanza di Meta sono passi verso una gestione sicura e responsabile delle nuove sfide tecnologiche.