Navigazione
Microsoft pagherà i danni legali per conto dei clienti che utilizzano i suoi prodotti di IA generativa nel caso in cui vengano citati in giudizio per violazione del copyright per i risultati generati da tali sistemi.

Microsoft pagherà i danni legali per conto dei clienti che utilizzano i suoi prodotti di IA generativa nel caso in cui vengano citati in giudizio per violazione del copyright per i risultati generati da tali sistemi.
Microsoft si assumerà quindi la responsabilità dei potenziali rischi legali derivanti da eventuali richieste di risarcimento da parte di terzi, a patto che i clienti dell'azienda utilizzino "le protezioni e i filtri dei contenuti" integrati nei suoi prodotti. Microsoft offre infatti funzionalità volte proprio a ridurre la probabilità che l'intelligenza artificiale restituisca contenuti che violano la legge.
È questo il quadro delineato dal nuovo Copilot Copyright Commitment di Microsoft, che estende l’attuale supporto di indennizzo della proprietà intellettuale ai servizi commerciali di Copilot e si basa sul precedente AI Customer Commitment.
Una decisione, questa di Microsoft, che non arriva a caso. Con la proliferazione dell'IA generativa, molti utenti hanno infatti sollevato dubbi sulla capacità di questa tecnologia di generare contenuti senza fare riferimento ai loro autori originali e senza quindi infrangere il copyright.
Microsoft sta puntando molto sulla crescita dell'IA generativa, integrandola in un'ampia gamma di prodotti (tra cui servizi cloud e software di produttività aziendale) e supportando finanziariamente OpnAI, il creatore di CahtGPT.
News correlate
EU-U.S. Data Privacy Framework: nuove regole per il trasferimento dei dati
La Commissione europea ha deciso l’adeguatezza del quadro normativo UE-USA in materia di privacy dei dati. Ecco come cambiano le...

Dati e customer experience spingono verso il cloud il settore Media & Entertainment
Secondo uno studio commissionato da Akamai, l'incremento del volume dei dati e le elevate aspettative nei confronti delle customer experience...

Quando l’IA aiuta a individuare i tentativi di violazione degli account
Secondo una nuova ricerca di Barracuda, l’analisi dei pattern basata su intelligenza artificiale individua i tentativi di violazione degli account.
