MicrosoftMicrosoft 365Intelligenza Artificiale

A Microsoft Ignite 2023 è l'intelligenza artificiale l'unica grande protagonista

di pubblicata il , alle 14:41 nel canale Innovazione A Microsoft Ignite 2023 è l'intelligenza artificiale l'unica grande protagonista

Ormai quasi non sorprende più che gli annunci delle grandi aziende tecnologiche ruotino attorno all'IA, e Microsoft continua questa tendenza a Ignite 2023 con moltissimi annunci legati proprio all'intelligenza artificiale

 

Moltissime delle novità che Microsoft ha presentato a Ignite 2023 riguardano, com'è facile aspettarsi a questo punto, l'intelligenza artificiale. L'azienda si è mossa molto velocemente e si è posizionata come uno dei pionieri in questo ambito, e sta continuando a investire per rimanere leader.

Microsoft Ignite 2023: l'intelligenza artificiale nei data center

La prima novità che Microsoft annuncia è che sta introducendo cambiamenti nei suoi data center per far spazio alle nuove necessità che nascono dall'uso dell'IA nelle aziende. Microsoft Azure Maia è un acceleratore per l'IA progettato per eseguire l'addestramento e l'inferenza dell'IA; l'azienda non specifica di che chip si tratti, ma è presumibile che sia un FPGA che affiancherà le normali CPU.

Proprio a proposito di queste ultime è interessante notare che Microsoft ha presentato anche i propri processori, chiamati Microsoft Azure Cobalt e dotati di 192 core con architettura ARM. L'obiettivo dichiarato per questo chip è la riduzione dei costi, grazie a una maggiore efficienza energetica rispetto alle proposte x86.

È interessante notare come Microsoft punti a diversificare la sua offerta (e anche i suoi fornitori) e abbia annunciato anche l'aggiunta delle GPU AMD MI300X per applicazioni di IA, così da offrire (e poter contare su) un'alternativa alle onnipresenti GPU NVIDIA.

Microsoft Copilot dovunque e altre novità relative all'IA

Microsoft sta velocemente integrando Copilot in tutti i suoi prodotti e servizi. L'azienda ha già confermato che porterà il servizio anche su Windows 10, ma il suo (precedente, in realtà) sistema operativo non è l'unico ambito in cui vedremo l'arrivo di un assistente di IA.

Microsoft 365 ha visto infatti l'introduzione di Copilot come parte del servizio per le aziende. Un nuovo cruscotto, la Microsoft Copilot Dashboard, mette a disposizione dei clienti informazioni sull'impatto che ha Copilot sul lavoro dei collaboratori. Verrà poi aggiunta la possibilità di personalizzare le risposte date da Copilot, assieme a quella di usarlo all'interno di Outlook.

Copilot Studio è uno strumento "low code" per personalizzare Copilot usando i dati aziendali e creare modelli usabili dentro o fuori l'azienda, in base alle specifiche esigenze. Copilot for Service aiuta gli agenti che si occupano del servizio ai clienti usando l'IA generativa per ottenere più rapidamente risposte dai dati aziendali.

Copilot for Azure punta ad aiutare i sistemisti nell'amministrazione degli ambienti IT. Secondo Microsoft si tratta di "più di un semplice strumento, [perché] è un'esperienza unificata di chat che capisce il ruolo e gli obiettivi dell'utente e migliora la capacità di progettare, impiegare e risolvere problemi con applicazioni e infrastrutture."

Ci sono novità anche per gli sviluppatori: Azure AI Studio è in fase di anteprima e offre una piattaforma unificata per creare applicazioni che usano l'IA; sul fronte dei modelli, a fine novembre sarà disponibile per tutti GPT-3.5 Turbo, mentre GPT-4 Turbo sarà in fase di anteprima pubblica; DALL-E 3 è ora in anteprima e GPT-4 Turbo with Vision lo sarà presto, per consentire agli sviluppatori di lavorare con le immagini sia in fase di riconoscimento, sia in fase di produzione.

Microsoft ha inoltre annunciato il Customer Copyright Commitment per i clienti che usano Azure OpenAI Service: si tratta di documentazione che aiuta i clienti a implementare misure tecniche per ridurre il rischio di violare il copyright con l'IA.

7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
LMCH21 Novembre 2023, 18:39 #1
Wow! Mi chiedo quanti si rendono conto del disastro in slow-motion che sta per rilasciare Microsoft.

Copilot Dashboard sembra fatto apposta per monitorare facilmente i dipendenti ma traendo le conclusioni sbagliate sui dati che vengono presentati.

Copilot Studio si presta bene al furto di informazioni bypassando tutti gli attuali meccanismi di cybersecurity.

Copilot for Azure promette cose fantastiche, riduce il numero di sistemisti necessari per gestire una certa infrastruttura ed al tempo stesso apre una miriade di nuovi vettori d'attacco tramite sovversione di LLM.

La cosa più spettacolare é il "Customer Copyright Commitment": in pratica dicono che usando i loro prodotti le violazioni di Copyright saranno inevitabili e che saranno caXXi tuoi gestirne le conseguenze.

Un sacco di nuove opportunità per sviluppatori, tecnici, hacker ed avvocati che comprendono davvero le potenzialità di quei prodotti.
k0nt321 Novembre 2023, 20:07 #2
Originariamente inviato da: LMCH
Wow! Mi chiedo quanti si rendono conto del disastro in slow-motion che sta per rilasciare Microsoft.


Se non capisci l'importanza di quello che sta avvenendo a livello enterprise non è colpa di Microsoft. Loro possono anche fallire, ma il concetto di "copilot" rimarrà ed è il futuro a cui ti devi abituare. Tant'è che aziende come Visa, BP, Honda, Pfizer, Accenture, EY, KPMG, Kyndryl e PwC lo usavano già in anteprima e adesso si stanno aggiungendo altre grosse realtà. Ma evidentemente non hanno nessuno skillato come LMCH ti consiglio di mandare il CV

Originariamente inviato da: LMCH
Copilot Dashboard sembra fatto apposta per monitorare facilmente i dipendenti ma traendo le conclusioni sbagliate sui dati che vengono presentati.


Spiegati meglio, in che modo monitora i dipendenti? E' fatto per misurare le performance di Copilot, non dei dipendenti.

Originariamente inviato da: LMCH
Copilot Studio si presta bene al furto di informazioni bypassando tutti gli attuali meccanismi di cybersecurity.


In che modo? Tieni conto che Copilot ha accesso soltanto alle informazioni a cui ha accesso l'utente che ne fa uso.

Originariamente inviato da: LMCH
Copilot for Azure promette cose fantastiche, riduce il numero di sistemisti necessari per gestire una certa infrastruttura ed al tempo stesso apre una miriade di nuovi vettori d'attacco tramite sovversione di LLM.


Fammi un esempio di vettore d'attacco tramite sovversione di LLM sfruttabile tramite Copilot for Azure.

Originariamente inviato da: LMCH
La cosa più spettacolare é il "Customer Copyright Commitment": in pratica dicono che usando i loro prodotti le violazioni di Copyright saranno inevitabili e che saranno caXXi tuoi gestirne le conseguenze.

Un sacco di nuove opportunità per sviluppatori, tecnici, hacker ed avvocati che comprendono davvero le potenzialità di quei prodotti.


Questo è perchè hai completamente travisato l'obiettivo dell'IA generativa. Non sostituisce il cervello dei dipendenti, ma semplicemente ne aumenta la produttività.
LMCH22 Novembre 2023, 17:00 #3
Originariamente inviato da: k0nt3
Se non capisci l'importanza di quello che sta avvenendo a livello enterprise non è colpa di Microsoft. Loro possono anche fallire, ma il concetto di "copilot" rimarrà ed è il futuro a cui ti devi abituare. Tant'è che aziende come Visa, BP, Honda, Pfizer, Accenture, EY, KPMG, Kyndryl e PwC lo usavano già in anteprima e adesso si stanno aggiungendo altre grosse realtà.

La capisco eccome l'importanza e non mi limito alle affermazioni ottimistiche di chi commercializza il prodotto.
E nota che io ho parlato specificamente di Microsoft e dei prodotti annunciati, visto che non è chiaro cosa/come le aziende citate usando di quei tool e se si tratta di test run o uso su larga scala.

Originariamente inviato da: k0nt3
Ma evidentemente non hanno nessuno skillato come LMCH ti consiglio di mandare il CV


Nah! Non mi interessa, lavoro in un settore totalmente diverso rispetto a quelli citati.
Paradossalmente ho seguito con estrema attenzione gli sviluppi dei LLM proprio per capire come integrarli nel nostro settore e quali potenziali vantaggi/svantaggi potrebbero portare. Diciamo che non sono rimasto impressionato, specialmente in base a quanto emerge dalle pubblicazioni sull'argomento e su come certe problematiche vengono aggirate.

Originariamente inviato da: k0nt3
Spiegati meglio, in che modo monitora i dipendenti? E' fatto per misurare le performance di Copilot, non dei dipendenti.


Il "trucco" sta nel criterio usato per suddividere in team un certo gruppo di dipendenti.
Dai un occhiata qui e nota i punti dove compare
"This metric is not based on Copilot usage", in base a come suddividi i dipendenti in team puoi valutare sia come cambia la loro produttività con copilot e sia estrarre indicatori sulla produttività dei team.

Originariamente inviato da: k0nt3
In che modo? Tieni conto che Copilot ha accesso soltanto alle informazioni a cui ha accesso l'utente che ne fa uso.


E' scritto espressamente: "[I]Copilot Studio è uno strumento "low code" per personalizzare Copilot usando i dati aziendali e creare modelli usabili dentro o fuori l'azienda, in base alle specifiche esigenze.[/I]"

Considerando che le tecniche di sovversione dei LLM sono già ampiamente note, come fai ad essere sicuro di quali dati sono estraibili e quali no con opportune sessioni ad hoc ?

Originariamente inviato da: k0nt3
Fammi un esempio di vettore d'attacco tramite sovversione di LLM sfruttabile tramite Copilot for Azure.


Non è necessario fare un esempio specifico, basta notare quel che scrive Microsoft stessa "Use Copilot AI assistance to answer questions, author complex commands, and act on your behalf using natural language."


Originariamente inviato da: k0nt3
Questo è perchè hai completamente travisato l'obiettivo dell'IA generativa. Non sostituisce il cervello dei dipendenti, ma semplicemente ne aumenta la produttività.


Non è quello il punto.
Il punto è che quei prodotti basati su AI generative commercializzati da Microsoft possono violare dei copyright e tocca all'utente verificare che questo non succeda perchè in caso di rogne la colpa è del cliente e non di Microsoft.

Possibile che da parte di Microsoft non vi sia un minimo sforzo di mitigare la cosa ?
Eppure anche solo tentare automaticamente un match con elementi visuali o testuali soggetti a copyright dovrebbe essere nelle capacità di un LLM capace di violarli.
k0nt322 Novembre 2023, 20:23 #4
Originariamente inviato da: LMCH
La capisco eccome l'importanza e non mi limito alle affermazioni ottimistiche di chi commercializza il prodotto.
E nota che io ho parlato specificamente di Microsoft e dei prodotti annunciati, visto che non è chiaro cosa/come le aziende citate usando di quei tool e se si tratta di test run o uso su larga scala.

Nah! Non mi interessa, lavoro in un settore totalmente diverso rispetto a quelli citati.
Paradossalmente ho seguito con estrema attenzione gli sviluppi dei LLM proprio per capire come integrarli nel nostro settore e quali potenziali vantaggi/svantaggi potrebbero portare. Diciamo che non sono rimasto impressionato, specialmente in base a quanto emerge dalle pubblicazioni sull'argomento e su come certe problematiche vengono aggirate.

Dipende dal settore e dal modello che si vuole usare, ma non c'è alcun dubbio che una IA possa essere di grosso aiuto per tantissimi lavori (compresa la programmazione che è quello che mi interessa maggiormente). Spero solo non reintroducano Clippy
Originariamente inviato da: LMCH
Il "trucco" sta nel criterio usato per suddividere in team un certo gruppo di dipendenti.
Dai un occhiata qui e nota i punti dove compare
"This metric is not based on Copilot usage", in base a come suddividi i dipendenti in team puoi valutare sia come cambia la loro produttività con copilot e sia estrarre indicatori sulla produttività dei team.

Hai capito molto male: "Count of Teams meetings users across your organization over the past 28 days"
Con Teams si intende il software non un gruppo di persone, infatti quelle metriche sono aggregate a livello di intera organizzazione.
Originariamente inviato da: LMCH
E' scritto espressamente: "[I]Copilot Studio è uno strumento "low code" per personalizzare Copilot usando i dati aziendali e creare modelli usabili dentro o fuori l'azienda, in base alle specifiche esigenze.[/I]"

Considerando che le tecniche di sovversione dei LLM sono già ampiamente note, come fai ad essere sicuro di quali dati sono estraibili e quali no con opportune sessioni ad hoc ?

Perchè Microsoft ha già tutta un'infrastruttura adatta allo scopo in Azure, motivo per cui è una delle poche aziende che può sviluppare qualcosa come Copilot.
Vedi https://learn.microsoft.com/en-us/m...copilot-privacy
Originariamente inviato da: LMCH
Non è necessario fare un esempio specifico, basta notare quel che scrive Microsoft stessa "Use Copilot AI assistance to answer questions, author complex commands, and act on your behalf using natural language."

E con questo? Se intendi che si possano estorcere informazioni a cui non dovresti avere accesso vedi la risposta precedente. Se invece intendi che un malintenzionato possa fargli apprendere nozioni pericolose è impossibile perchè il modello non viene addestrato usando gli input dati dagli utenti.
Originariamente inviato da: LMCH
Non è quello il punto.
Il punto è che quei prodotti basati su AI generative commercializzati da Microsoft possono violare dei copyright e tocca all'utente verificare che questo non succeda perchè in caso di rogne la colpa è del cliente e non di Microsoft.

Possibile che da parte di Microsoft non vi sia un minimo sforzo di mitigare la cosa ?
Eppure anche solo tentare automaticamente un match con elementi visuali o testuali soggetti a copyright dovrebbe essere nelle capacità di un LLM capace di violarli.

Certo che tocca all'utente verificare quello che dice/fa l'IA, altrimenti sarebbe come dire che con l'Autopilot di Tesla puoi dormire mentre sei in viaggio. Io non lo farei, te?
LMCH25 Novembre 2023, 00:55 #5
Originariamente inviato da: k0nt3
Dipende dal settore e dal modello che si vuole usare, ma non c'è alcun dubbio che una IA possa essere di grosso aiuto per tantissimi lavori (compresa la programmazione che è quello che mi interessa maggiormente).

Dipende da cosa si intende per IA, una delle cose che mi crea parecchi problemi è che Microsoft sta puntando forte nel proporre i "suoi" prodotti bastati su algoritmi IA come se fossero delle "vere" IA per poi produrre roba come Microsoft Tay (il chatbot "nazista"

Originariamente inviato da: k0nt3
Spero solo non reintroducano Clippy

La slow-AI in Microsoft continua a fare tentativi a riguardo, prima Microsoft Bob, poi Clippy e gli altri "assistenti", poi Tay (il chatbot "convertito al nazismo" ...


Originariamente inviato da: k0nt3
Hai capito molto male: "Count of Teams meetings users across your organization over the past 28 days"
Con Teams si intende il software non un gruppo di persone, infatti quelle metriche sono aggregate a livello di intera organizzazione.


Eppure nel sito di Microsoft si trovano frasi come queste:
( link )
"T[I]o make the data in the Copilot for Microsoft 365 report [U]anonymous[/U], you must be a global administrator. This will hide identifiable information (using MD5 hashes) such as display name, email, and Microsoft Entra Object ID in report and their export.[/I]"


Originariamente inviato da: k0nt3
Perchè Microsoft ha già tutta un'infrastruttura adatta allo scopo in Azure, motivo per cui è una delle poche aziende che può sviluppare qualcosa come Copilot.
Vedi https://learn.microsoft.com/en-us/m...copilot-privacy

Il mio punto era che usando tool low-code un dipendente dell'azienda ACME deliberatamente o per errore può inserire nel modello reso accessibile informazioni che non dovrebbero uscir fuori dall'azienda senza che nessuno se ne accorga.

Originariamente inviato da: k0nt3
E con questo? Se intendi che si possano estorcere informazioni a cui non dovresti avere accesso vedi la risposta precedente. Se invece intendi che un malintenzionato possa fargli apprendere nozioni pericolose è impossibile perchè il modello non viene addestrato usando gli input dati dagli utenti.


Ti sei scordato un malintenzionato entrato nel sistema che fa richieste al modello in modo tale che sia il modello a compiere azioni che producono fughe di informazioni oppure danni/malfunzionamenti all'infrastruttura per effetto combinato di richieste fatte da utenti diversi (e questo è solo uno dei possibili casi).

Originariamente inviato da: k0nt3
Certo che tocca all'utente verificare quello che dice/fa l'IA, altrimenti sarebbe come dire che con l'Autopilot di Tesla puoi dormire mentre sei in viaggio. Io non lo farei, te?

Il punto è che la stessa AI in teoria potrebbe fare tale verifica in modo più rapido ed esteso rispetto all'utente facendo un match di quanto prodotto con un database di copyright noti. Invece di proporre tale opzione almeno come funzionalità aggiuntiva a pagamento, hanno scelto di "fornire documentazione".
k0nt325 Novembre 2023, 19:36 #6
Originariamente inviato da: LMCH
Dipende da cosa si intende per IA, una delle cose che mi crea parecchi problemi è che Microsoft sta puntando forte nel proporre i "suoi" prodotti bastati su algoritmi IA come se fossero delle "vere" IA per poi produrre roba come Microsoft Tay (il chatbot "nazista"


La slow-AI in Microsoft continua a fare tentativi a riguardo, prima Microsoft Bob, poi Clippy e gli altri "assistenti", poi Tay (il chatbot "convertito al nazismo" ...

Bravo, ottimo esempio di argomento fantoccio
Originariamente inviato da: LMCH
Eppure nel sito di Microsoft si trovano frasi come queste:
( link )
"T[I]o make the data in the Copilot for Microsoft 365 report [U]anonymous[/U], you must be a global administrator. This will hide identifiable information (using MD5 hashes) such as display name, email, and Microsoft Entra Object ID in report and their export.[/I]"

Perchè semplicemente non ammetti di aver preso un grosso abbaglio?
E' ovvio, i dati appartengono all'azienda che amministra l'organizzazione sul cloud, di conseguenza è l'amministratore dell'azienda che configura questo genere di cose in base alle policy aziendali. I dati non sono a disposizione di Microsoft come è spiegato nella pagina che avevo già linkato.
Originariamente inviato da: LMCH
Il mio punto era che usando tool low-code un dipendente dell'azienda ACME deliberatamente o per errore può inserire nel modello reso accessibile informazioni che non dovrebbero uscir fuori dall'azienda senza che nessuno se ne accorga.

I meccanismi per mettere al sicuro i dati ci sono e non c'è niente di speciale riguardo a copilot, si tratta dell'infrastruttura già esistente su Azure con i propri log e le sue metriche da monitorare. Se mi dici che ci sono dei buchi lì allora mezzo mondo dovrebbe preoccuparsi perchè su Azure ci stanno dati ultra sensibili di aziende e governi piuttosto importanti.
Che poi ci siano gli incompetenti è vero, ma non ci si può fare niente, quello succedeva già prima.
Originariamente inviato da: LMCH
Ti sei scordato un malintenzionato entrato nel sistema che fa richieste al modello in modo tale che sia il modello a compiere azioni che producono fughe di informazioni oppure danni/malfunzionamenti all'infrastruttura per effetto combinato di richieste fatte da utenti diversi (e questo è solo uno dei possibili casi).

Un malintenzionato non aumenta il proprio accesso al sistema tramite copilot, può accedere agli stessi dati con o senza copilot. Se non hai capito questo passaggio è anche inutile che ne discutiamo.
Originariamente inviato da: LMCH
Il punto è che la stessa AI in teoria potrebbe fare tale verifica in modo più rapido ed esteso rispetto all'utente facendo un match di quanto prodotto con un database di copyright noti. Invece di proporre tale opzione almeno come funzionalità aggiuntiva a pagamento, hanno scelto di "fornire documentazione".

Te l'ho già detto, manda il CV che ti stanno aspettando
LMCH26 Novembre 2023, 12:11 #7
Originariamente inviato da: k0nt3
Bravo, ottimo esempio di argomento fantoccio

Mica tanto fantoccio, quello descritto è un approccio tipico di Microsoft.

Originariamente inviato da: k0nt3
Perchè semplicemente non ammetti di aver preso un grosso abbaglio?
E' ovvio, i dati appartengono all'azienda che amministra l'organizzazione sul cloud, di conseguenza è l'amministratore dell'azienda che configura questo genere di cose in base alle policy aziendali. I dati non sono a disposizione di Microsoft come è spiegato nella pagina che avevo già linkato.

Il mio punto era ed è che permette di monitorare i dipendenti, non che permette a Microsoft di monitorare i dipendenti di altre ditte.


Originariamente inviato da: k0nt3
I meccanismi per mettere al sicuro i dati ci sono e non c'è niente di speciale riguardo a copilot, si tratta dell'infrastruttura già esistente su Azure con i propri log e le sue metriche da monitorare. Se mi dici che ci sono dei buchi lì allora mezzo mondo dovrebbe preoccuparsi perchè su Azure ci stanno dati ultra sensibili di aziende e governi piuttosto importanti.
Che poi ci siano gli incompetenti è vero, ma non ci si può fare niente, quello succedeva già prima.


Il mio punto è che si tratta di un NUOVO vettore di attacco e/o per exploit rispetto a quelli già noti. Non a caso parlavo di nuove opportunità per chi opera nel settore (cyberwarfare, cybersecurity e hacking di vario genere).

Poi ci sarebbe da aprire una parentesi su come viene delegata la gestione di dati strategici senza considerare a sufficienza l'aspetto della sicurezza (purtroppo c'è chi che per risparmiare spiccioli mette a rischio miliardi), ma è tutto un altro discorso.

Originariamente inviato da: k0nt3
Un malintenzionato non aumenta il proprio accesso al sistema tramite copilot, può accedere agli stessi dati con o senza copilot. Se non hai capito questo passaggio è anche inutile che ne discutiamo.


Il mio punto sta nel fatto che tramite copilot è molto più facile passare innosservati e sopratutto avere rapidamente una "mappa" del sistema e delle informazioni presenti senza attirare l'attenzione su di se.
Entrare in un sistema è la parte più facile, restarci dentro a lungo senza farsi beccare è dove si fanno i soldi trovando le cose più succose e/o si riesce a massimizzare le proprie possibilità di azione.

Originariamente inviato da: k0nt3
Te l'ho già detto, manda il CV che ti stanno aspettando


Veramente sono loro che cercano me.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^