ChatGPT è un rischio per la cybersecurity: Ermes spiega come e perché
di Riccardo Robecchi pubblicata il 26 Gennaio 2023, alle 18:41 nel canale SecurityErmes, azienda italiana che si occupa di sicurezza informatica, ha delineato i principali rischi collegati alla diffusione di ChatGPT, strumento sempre più noto e diffuso
ChatGPT è indubbiamente uno strumento molto potente e in grado di produrre contenuti particolarmente interessanti in una gran varietà di ambiti. Proprio questa sua capacità, però, lo rende particolarmente attraente anche per i cybercriminali, che stanno già cominciando a sfruttarlo per portare avanti attacchi alle aziende e agli individui. Ermes, azienda italiana che si occupa di cybersicurezza, ha fatto il punto della situazione elencando i principali rischi legati a ChatGPT.
ChatGPT come rischio per la cybersecurity: la prospettiva di Ermes
Il primo modo in cui i criminali hanno sfruttato ChatGPT è emulandolo: la grande popolarità che questo strumento sta vivendo ha fatto sì che fosse facile per i malfattori creare siti e applicazioni copia dell'originale, così da carpire informazionidgli utenti ignari. Di fatto si tratta di normali attacchi di phishing nemmeno particolarmente originali, ma comunque sempre efficaci.
Dove ChatGPT entra realmente in gioco è in attacchi di phishing in cui è, per l'appunto, l'IA a creare i testi, con un'accuratezza e una quantità senza precedenti. L'uso dell'IA permette infatti di confezionare messaggi sofisticati, senza i classici errori linguistici marchiani da truffa del principe nigeriano, in gran quantità e rendendoli personalizzati per ciascun destinatario. Ciò vale anche per le landing page dei siti costruiti per truffare gli utenti o carpirne le credenziali.
C'è poi anche il rischio che l'utente condivida informazioni sensibili nell'uso di ChatGPT e strumenti simili, andando così potenzialmente a rendere disponibili ad altri tali informazioni.
Abbiamo chiesto a Lorenzo Asuni, CMO in Ermes, in che modo l'azienda intenda combattere queste nuove minacce e se non restino comunque valide le solite indicazioni nella lotta al phishing. "Non si tratterà solo delle email come unico canale di attacco ma sarà più facile costruire siti di phishing, campagne advertising, display banner e comunicazioni sempre più efficaci e 'cucite' sui singoli profili di persone o aziende individuate all'interno degli attacchi dei cybercriminali", ci dice Asuni. "Ovviamente valgono le solite raccomandazioni, ma la potenzialità di fare 'attacchi' in maniera massiccia e veloce, unite alle capacità di poterli rendere completamente costruiti sui singoli utenti o gruppo, li renderà sempre più difficili da individuare alla singola persona: per questo serve proteggersi con l'IA. Noi di Ermes stiamo adattando una nostra tecnologia proprietaria che è in grado di verificare e bloccare la condivisione su form, siti o piattaforme come ChatGPT, di credenziali (email e password) o altre informazioni sensibili che vengono stabilite a monte. Analizziamo quelli che sono i testi che l'utente condivide tramite i diversi canali e a breve potremo bloccarne l'invio, oppure informare l'utente che sta condividendo informazioni sensibili."
Resta però il problema di come affrontare questa nuova minaccia: si può combattere il fuoco con altro fuoco, ovvero l'IA con altre IA? "Già da tempo i cybercriminali utilizzano l'IA per massimizzare la scalabilità e l'efficacia dei loro attacchi", ci dice Asuni. "Per questo motivo diventa sempre più fondamentale l'utilizzo, come facciamo noi in Ermes, dell'intelligenza artificiale in difesa delle persone. Oggi grazie al machine learning si riescono a studiare milioni di dati utili all'investigazione, prevenzione e rilevamento degli attacchi, che spesso hanno schemi simili (riutilizzano gli stessi strumenti come codice malevolo, script, ecc): per questo con i corretti strumenti si può disinnescare la loro efficacia."
14 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoNon reputi che questa paura sia la stessa che potevano avere gli operai non specializzati quando si sono introdotti i bracci meccanici in fabbrica? Si è successivamente visto che l'introduzione della robotica nelle fabbriche per auto non ha ridotto il personale in maniera complessiva perchè ci volevano altrettanti operai per produrre i bracci meccanici e altrettanti operai che dovevano controllare/gestirli (mi riferisco ad esempio alla politica inglese della Tatcher e i successivi studi che hanno analizzato l'occupazione inglese).
Traslando questo esempio ChatGPT probabilmente avrà bisogno della componente umana per la gestione e anche se venisse implementata in azienda ci vorrebbero dei programmatori per rifinire o controllare il codice.
Lo dico senza vena polemica ma solo come spunto di riflessione.
Ciao.
tieni degli esempi pratici del 2020
https://www.agendadigitale.eu/sanit...zioni-pratiche/
Questa IA non "pensa" per lui, ma fa per lui i lavori tediosi. Se io programmo un simulatore di volo, la parte importante e' capire quali sono le equazioni e le logiche da implementare, non fare il lavoro di bassa manovalanza. Se vedo che in un algoritmo devo moltiplicare due quaternioni, il fatto di poter chiedere direttamente la funzione che fa quello che cerco e' molto utile, ma a medio/alto livello e' sempre l'ingegnere/programmatore che lavora.
E' esattamente lo stesso discorso che ci sono con i programmi di progettazione CAD come Inventor, Solidworks e Catia: hanno strumenti molto potenti ed avanzati rispetto a carta e penna, oppure linee/cerchi/etc di autocad. Ci sono strumenti che in un paio di click ti permettono di disegnare ingranaggi, di effettuare un cablaggio, di studiare lo stress meccanico di una struttura e via dicendo, ma non possono fare il progetto al posto tuo. E gli ingegneri migliori usano questi strumenti proprio perche' possono pensare alle cose piu' importanti lasciando al programma la responsabilita' di fare le cose piu' implementative, anche se magari non sono semplici e quindi di vuole molto tempo (ed e' li' che si apprezza la potenza di certi tool).
Traslando questo esempio ChatGPT probabilmente avrà bisogno della componente umana per la gestione e anche se venisse implementata in azienda ci vorrebbero dei programmatori per rifinire o controllare il codice.
Lo dico senza vena polemica ma solo come spunto di riflessione.
Secondo ma c'é una grande differenza tra la rivoluzione industriale che ha rimpiazzato alcune operazioni manuali grazie a bracci meccanici e robot di vario genere e quello che potrebbe succedere nei prossimi decenni con l'IA.
Purtroppo non siamo tutti geni e l'intelligenza umana secondo me non potrà tenere il passo di fronte ad una IA che si autoalimenta di informazioni e che puo' migliorarsi esponenzialmente.
L'uomo sono secoli, forse millenni ormai che non progredisce piu' a livello cognitivo, anzi alcuni studi mostrano che il nostro cervello sta addirittura regredendo rispetto al passato. L'IA non ha bisogno di riposare, non si ammala, non sciopera, non ha problemi familiari e potenzialmente puo' diventare piu' intelligente dell'uomo a stretto giro di posta.
Forse sono pessimista io, ma temo che molti profili a breve non serviranno piu' a nulla, spero di sbagliarmi ovviamente.
Al momento è bravo a produrre codice con richieste piuttosto standard e relativamente brevi, ma prima di fare quello che dici tu ce ne passa. Poi non è che basta avere il codice, va anche implementato, testato, debuggato, migliorato, espanso... Mica basta un copia ed incolla.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".