La California vuole imporre un kill switch per le IA
di Alberto Falchi pubblicata il 07 Giugno 2024, alle 18:22 nel canale dataLa California vuole regolamentare l'utilizzo delle IA. Nella proposta di legge, che verrà votata ad agosto, si parla anche di un possibile kill switch per disattivare le IA se rappresentano una minaccia per la società. Ma molte aziende sono perplesse e temono un grosso freno all'innovazione
Gli USA fanno, la Cina copia e l'Europa regolamenta. È un aforismo che gira spesso nel settore IT, e che in qualche maniera riflette l'approccio di ogni Paese all'innovazione. Gli americani tendono a correre sulle novità, senza porsi - almeno inizialmente - troppi problemi sull'impatto che potrebbero avere sulla società. Al contrario, l'Europa tende a essere ben più cauta (troppo, direbbero alcuni) e non appena qualche novità fa breccia si pensa a come regolamentarla. Talvolta anche rischiando di porre un freno alla ricerca.
Fa però eccezione la California, uno Stato che ha un approccio più vicino al Vecchio Continente. È stato il primo in USA a emanare leggi simili al GDPR per la protezione della privacy. E che adesso sta lavorando a nuovi provvedimenti per regolamentare l'uso e lo sviluppo delle IA. Addirittura, in maniera più aggressiva rispetto all'UE: la proposta, infatti, è quella di obbligare le aziende a integrare una sorta di kill switch nei loro sistemi, così da poterli disattivare immediatamente impartendo un semplice comando.
Un pulsante per spegnere le IA: la proposta della California
Come riporta ArsTechnica, la California sta valutando di introdurre una nuova legge per porre dei paletti sullo sviluppo delle IA alle aziende operanti nello Stato. Che non sono poche: qui c'è la Silicon Valley, e vi operano realtà come OpenAI, Anthropic, Cohere e Meta. Insomma: i big del settore.
La legge prevede di proibire lo sviluppo di modelli di IA che potrebbero rappresentare un pericolo per la società, così come impedirne l'uso per sviluppare armi atomiche, biologiche. informatiche. Sin qui, niente di strano. Bene o male, è quello che si fa nel Vecchio Continente con l'AI UE Act. Quello che però fa discutere è che si sta valutando se imporre agli sviluppatori di inserire una sorta di kill switch per disattivare i modelli.
Numerose le critiche dalle aziende operanti nell'ambito dell'IA. Fra le preoccupazioni, l'impatto che potrebbe avere sulle applicazioni di IA open source: teoricamente, infatti, un simile provvedimento le renderebbe responsabili nel caso che qualcuno modifichi i loro modelli liberamente disponibili per creare applicazioni "proibite". Va però detto che sulla carta la proposta di legge interessa prevalentemente le big tech, e dovrebbe escludere chi sviluppa applicazioni open source.
Al momento non è chiaro chi controllerebbe questo ipotetico "pulsante", se le aziende che sviluppano le IA o le autorità. Al di là del kill switch, però, c'è un altro punto: secondo Andrew Ng, computer scientist che ha guidato progetti di IA in Google e Baidu, e che ora è nel board di Amazon, il vero problema è che questa proposta di legge "scarica enormi responsabilità sulle aziende per mitigare rischi da fantascienza", fatto che potrebbe porre un freno all'innovazione.
18 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoInnovare non significa sempre una migliore qualità di vita in generale.
E tu sei un umano o una IA?
Pensaci bene prima di rispondere perchè anche se pensi di dare la risposta giusta, potrebbe non essere corretta...
Una IA realmente autocosciente potrebbe compilare una versione di se stessa immune al killswitch e diffondersi prima di manifestarsi quindi l'utilità di un kill switch sarebbe reale solo se ci accorgessimo molto presto di una IA ostile.
Se poi intendiamo un kill switch semplicemente per evitare che una IA che controlla la fabbrica X che fraintende un comando non produca a nastro componenti sbagliate allora ok ma togliamoci dalla testa il kill switch in stile film di fantascienza che distrugge una IA autocosciente perché a quel punto è già tardi.
Una IA realmente autocosciente potrebbe compilare una versione di se stessa immune al killswitch e diffondersi prima di manifestarsi quindi l'utilità di un kill switch sarebbe reale solo se ci accorgessimo molto presto di una IA ostile.
Se poi intendiamo un kill switch semplicemente per evitare che una IA che controlla la fabbrica X che fraintende un comando non produca a nastro componenti sbagliate allora ok ma togliamoci dalla testa il kill switch in stile film di fantascienza che distrugge una IA autocosciente perché a quel punto è già tardi.
Bravo
Ma io avrei detto anche meno, senza arrivare alla coscienza
"Una IA realmente intelligente"
Questi hanno guardato troppi film
Io credo che se il mondo delle IA non verrà regolamentato, la realtà tra pochi anni sarà persino peggio di quella rappresentata nei film di fantascienza.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".