Lavoro Il Garante sanziona un’altra intelligenza artificiale: privacy a rischio

Il Garante sanziona un’altra intelligenza artificiale: privacy a rischio

Il Garante ha sanzionato un'altra intelligenza artificiale facendo emergere quanto la nostra privacy sia ancora a rischio.

21 Maggio 2025 12:30

Il Garante Privacy ha inflitto una multa di 5 milioni di euro alla società americana Luka Inc, responsabile della gestione del chatbot Replika, per gravi violazioni GDPR. Questo provvedimento segna un punto cruciale nella regolamentazione delle tecnologie basate sull’intelligenza artificiale, sottolineando la necessità di rispettare rigorosamente le normative sulla protezione dei dati personali.

Replika, noto per offrire agli utenti la possibilità di creare un compagno virtuale personalizzabile, è stato già oggetto di controversie. Nel febbraio 2023, l’app era stata temporaneamente bloccata a causa di carenze nella sua informativa sulla privacy e nell’efficacia del sistema di verifica dell’età. L’istruttoria ha evidenziato come, al momento del blocco, la società non avesse stabilito basi giuridiche adeguate per il trattamento dei dati personali, una lacuna particolarmente critica considerando la dichiarata esclusione dei minorenni dal servizio.

Il Garante Privacy sanziona l’intelligenza artificiale Replika

La nuova indagine avviata dal Garante Privacy si concentra su diversi aspetti fondamentali del trattamento dei dati da parte dell’intelligenza artificiale Replika. Tra questi, le autorità esamineranno:

  • le valutazioni dei rischi effettuate dall’azienda;
  • le misure di protezione implementate durante lo sviluppo e l’addestramento del modello;
  • i tipi di dati utilizzati;
  • l’eventuale impiego di tecniche di anonimizzazione.

Questi approfondimenti mirano a garantire che il trattamento dei dati rispetti i principi di minimizzazione e proporzionalità previsti dal Regolamento Generale sulla Protezione dei Dati. Il caso di Replika è emblematico, non solo per l’entità della sanzione, ma anche per il messaggio che invia all’intero settore tecnologico: l’innovazione non può prescindere dalla tutela dei diritti degli utenti.

Questo provvedimento non è un caso isolato, ma rappresenta una chiara indicazione che le autorità di regolamentazione stanno intensificando i controlli sulle tecnologie emergenti, nello specifico l’intelligenza artificiale.

Cosa devono fare le aziende coinvolte nel campo AI

Per le aziende che operano in questo campo, è fondamentale adottare un approccio proattivo alla conformità normativa. Investire in processi di verifica, trasparenza e protezione dei dati non è solo un obbligo legale, ma anche una strategia per costruire fiducia e credibilità con gli utenti.

La vicenda sottolinea anche l’importanza di un dialogo continuo tra innovatori e regolatori. Mentre le tecnologie basate sull’intelligenza artificiale continuano a evolversi, le normative devono adattarsi per affrontare nuove sfide e garantire che i diritti fondamentali degli utenti siano sempre protetti.

In questo contesto, casi come quello di Replika servono da monito per tutte le aziende tecnologiche, ricordando che la non conformità può portare a conseguenze significative, sia in termini economici che reputazionali.

In conclusione, la multa inflitta a Luka Inc e l’indagine in corso rappresentano un passo importante verso una maggiore responsabilizzazione delle aziende tecnologiche. Per il settore, è un’opportunità per riflettere sulle proprie pratiche e impegnarsi a rispettare non solo le normative, ma anche i principi etici fondamentali che guidano l’uso responsabile della tecnologia.

Se vuoi aggiornamenti su Lavoro inserisci la tua email nel box qui sotto:

Compilando il presente form acconsento a ricevere le informazioni relative ai servizi di cui alla presente pagina ai sensi dell'informativa sulla privacy.