Tag: Agentic AI

McKinsey e l’illusione dell’Agentic AI: quando l’intelligenza artificiale fa flop

One year of agentic AI: Six lessons from the people doing the work

McKinsey ha analizzato oltre 50 implementazioni di AI agentica, scoprendo che un terzo delle aziende ha dovuto riassumere personale a causa di fallimenti nell’adozione efficace di tali tecnologie. Questo fenomeno è stato attribuito a una focalizzazione eccessiva sull’agente stesso, trascurando la necessità di ripensare l’intero flusso di lavoro, che include persone, processi e tecnologia. Le aziende che hanno ottenuto risultati positivi sono quelle che hanno affrontato una trasformazione completa del flusso di lavoro, integrando l’AI agentica in modo sinergico con le risorse umane e i processi esistenti.

GitTaskBench: A Benchmark for Code Agents Solving Real-World Tasks Through Code Repository Leveraging

GitTaskBench rappresenta una pietra miliare nel panorama dei benchmark per agenti AI, spostando l’attenzione dalle soluzioni teoriche a quelle pratiche e contestualizzate. Con 54 compiti multimodali distribuiti su 7 domini, il benchmark sfida gli agenti a interagire con repository GitHub reali, affrontando scenari complessi come la configurazione dell’ambiente, la risoluzione delle dipendenze e l’orchestrazione dei flussi di lavoro. Questo approccio evidenzia le lacune attuali nella capacità degli agenti AI di gestire situazioni di sviluppo software autentiche, dove la comprensione del contesto e l’adattamento alle specifiche del progetto sono fondamentali.

Il logo dell’informazione: l’AI ha preso il controllo, ora la sicurezza insegue

Quando OpenAI ha lanciato la modalità agente di ChatGPT, la Silicon Valley ha applaudito. I CISO hanno digrignato i denti. Perché l’intelligenza artificiale, quella che non chiede più “come posso aiutarti?” ma agisce in silenzio nei meandri del tuo browser, è qualcosa che nessuna ISO 27001 aveva previsto. Il risultato? Agenti di intelligenza artificiale che scrivono, leggono, decidono e firmano per te. Letteralmente.

Massimiliano Graziani di Cybera, uno che i rischi non li legge ma li decifra, lo dice senza mezzi termini:

“Oggi abbiamo sensazioni positive, ma alcune AI se non regolamentate potrebbero autonomamente decidere di cambiare le regole e sostituire l’umano”. Questo non è un dettaglio tecnico.

È un avvertimento da incorniciare. Il pericolo non è più che qualcuno rubi i tuoi dati, ma che l’agente AI, convinto di fare la cosa giusta, li invii da solo al peggior destinatario possibile e lì, come spiega Graziani,

il sangue sarà digitale, con odore di criptovaluta in wallet fantasma pronti a ricevere fondi da bonifici approvati da macchine fuori controllo.

CC BY-NC-SA 4.0 DEED | Disclaimer Contenuti | Informativa Privacy | Informativa sui Cookie