Programma Schedulazioni Sale

Keynote - Software Performance Engineering (1995-2025): da modelli monolitici all’analisi a runtime basata su AI
Vittorio Cortellessa
Alla fine del secolo scorso si è aperta una nuova stagione nel campo della ricerca sull'analisi delle prestazioni, quando al software è stato assegnato un ruolo esplicito e indipendente. Infatti, il software è passato dall'essere un elemento strettamente dipendente dalla piattaforma hardware sulla quale veniva progettato ed eseguito a diventare esso stesso un elemento indipendente, con componenti e interazioni proprie.
Questo cambiamento ha avuto un impatto su tutti i campi di questo settore di ricerca, quali: linguaggi di modellazione, processi di analisi e sintesi di modelli software, tecniche di soluzione, interpretazione dei risultati, benchmarking e performance testing. Ha anche rappresentato uno dei fattori primari che hanno portato alla nascita di una comunità di ricerca intorno alle questioni relative alle prestazioni dei sistemi strettamente legate agli aspetti software.
La Keynote analizza la nascita e l’evoluzione della disciplina oggi chiamata Software Performance Engineering, ricostruendo il percorso degli ultimi 30 anni attraverso alcuni passaggi fondamentali.

Il mio viaggio in Rust... tra vibe-coding e old-coding
Luigi Fugaro
Navigare in un mare di codice con la "sicurezza" di un vecchio sviluppatore e allo stesso tempo l’entusiasmo di un neofita, è un’esperienza tutta da vivere. In questo talk racconterò la mia esperienza di vibe-coding, ovvero l’uso di strumenti intelligenti per creare e completare codice, esplorando le potenzialità e i limiti di questa nuova modalità di lavoro. Condividerò le scoperte che mi hanno colpito, come l’incredibile velocità con cui si può prototipare, così come le delusioni che nessun tool può magicamente risolvere, dai fraintendimenti semantici ai pericoli di affidarsi troppo all’automazione. Presenterò sia codice, sia i tool che si sono rivelati essenziali, qualche pratico consiglio per chiunque voglia avventurarsi nel vibe-coding, tra entusiasmo nerd, aspettative realistiche e una sana dose di introspezione sulla propria qualità/professionalità da sviluppatore. P.S: ho iniziato con Rust poco più di un anno fa, per cui non aspettatevi perle di saggezza su Rust.

Incident Management at Google
Riccardo Carlesso
SRE practices extend to more than just observability. They also include: Capacity Planning, Change Management, being prepared for disasters. In this session Riccardo will walk us through "IMAG", or how Google does Incident Management.

A2A, MCP and security concerns
Gregorio Palamà
In the evolving landscape of autonomous systems, Agent-to-Agent and Model Context Protocol are foundational. Crucially, the efficacy and reliability of AI agents, particularly those driven by sophisticated models, depend on the integrity of their operational environment, managed through those protocols. This talk critically examines the security concerns arising at the intersection of A2A communication and the Model Context Protocol. We will dissect vulnerabilities such as Context Poisoning, Contextual Data Leakage, Model Evasion, and evaluate approaches on how to mitigate or totally avoid them, if and when possible, in a DevSecOps way.

APIOps in azione: aggiungiamo agilità e governance alle tue API su Azure
Emanuele Garofalo
Le API sono il cuore pulsante dei nostri ecosistemi digitali. In questa sessione, esploreremo come l’approccio APIOps possa trasformare la gestione delle API quando vengono deployate su Azure. Discuteremo di come APIOps riduca i rischi operativi e acceleri il rilascio delle API, garantendo al contempo conformità tra gli ambienti e tracciabilità. Approfondiremo come questo modello favorisca una cultura di collaborazione tra team, promuovendo l’autonomia operativa e il rispetto degli standard di qualità in tutti gli ambienti.

Creare una piattaforma di applicazioni federate: Micro-Frontend e UI Composition
Davide Senatore
In questa sessione vedremo come progettare una piattaforma che permetta di creare "applicazioni federate". Le applicazioni federate sono applicazioni distinte che però condividono una serie di servizi, tra i quali sicuramente un IAM (Identity Access Manager). Vedremo come l'impiego di Keycloak come IAM ed una serie di API possa permettere la condivisione dei servizi e delle API a livello client e come questo possa permetterci di creare un'infrastruttura service mesh dove i widget creati come micro-frontend vengono ospitati all'interno delle applicazioni e comunicano tra loro a livello di interfaccia. Ogni applicazione federata è effettivamente la composizione di più "micro applicazioni" (microlith) che collaborano per fornire all'utente i servizi richiesti.

Windows AI API, l'AI sbarca offline direttamente in Windows
Alessio Iafrate
Utilizzare modelli AI offline ed in locale è sempre stato possibile ma a prezzo di dover installare motori e modelli esterni con relativi aggiornamenti e test a cui dover star dietro. La situazione diventa ancor più complessa se vogliamo distribuire il nostro prodotto a vari utenti oppure tramite store. Con le nuove Windows AI API integrate direttamente in windows tutto diventa molto più semplice. In questa sessione vedremo come andare ad utilizzarle all'interno delle nostre applicazioni con tutti i pro ed i contro relativi

Dal prompt alla produzione: prova, confronta, valida, integra con GitHub Models
Massimo Bonanni
Con GitHub Models hai a disposizione un laboratorio nativo nel repository dove scegliere fra decine di LLM, scrivere prompt come se fosse il tuo codice applicativo, confrontare modelli side-by-side e misurare la qualità con evaluator automatici, il tutto senza uscire dal tuo normale workflow Git / Actions. Durante la sessione mostreremo come passare dal playground interattivo alla Comparisons view, fino all'utilizzo di Actions per la valutazione automatica dei modelli, coprendo aspetti di governance e privacy già inclusi da GitHub. Dai primi esperimenti fino al deploy, GitHub Models trasforma il prompt in un asset di codice vero e proprio: testato, versionato e pronto a scalare. Se vuoi portare la tua AI “dal prompt alla produzione” in quattro mosse—Prova, Confronta, Valida, Integra—questa sessione è il trampolino perfetto.

Keynote - Software Performance Engineering (1995-2025): da modelli monolitici all’analisi a runtime basata su AI
Vittorio Cortellessa
Alla fine del secolo scorso si è aperta una nuova stagione nel campo della ricerca sull'analisi delle prestazioni, quando al software è stato assegnato un ruolo esplicito e indipendente. Infatti, il software è passato dall'essere un elemento strettamente dipendente dalla piattaforma hardware sulla quale veniva progettato ed eseguito a diventare esso stesso un elemento indipendente, con componenti e interazioni proprie.
Questo cambiamento ha avuto un impatto su tutti i campi di questo settore di ricerca, quali: linguaggi di modellazione, processi di analisi e sintesi di modelli software, tecniche di soluzione, interpretazione dei risultati, benchmarking e performance testing. Ha anche rappresentato uno dei fattori primari che hanno portato alla nascita di una comunità di ricerca intorno alle questioni relative alle prestazioni dei sistemi strettamente legate agli aspetti software.
La Keynote analizza la nascita e l’evoluzione della disciplina oggi chiamata Software Performance Engineering, ricostruendo il percorso degli ultimi 30 anni attraverso alcuni passaggi fondamentali.


Event-Driven Architecture on Kubernetes with Argo Events
Luca Passaretta
Fabrizio Morando
Argo Events è un framework di automazione per Kubernetes specializzato in workflow basati su eventi, che permette di attivare oggetti Kubernetes, Argo Workflows e Serverless Workload Events a partire da diverse sorgenti come webhooks, schedulers o code di messaggi. In questa sessione mostreremo come progettare e distribuire una architettura software Event-Driven sfruttando la tecnologia Argo Events. Partiremo da un Webhook Event Source e vedremo come il Sensor (Event Subscriber) sia in grado di creare dinamicamente un pod con caratteristiche costruite sulla base dei valori dell’evento ricevuto.

GitHub Copilot e GitHub Advanced Security: come amplificare le capacità degli sviluppatori!
Lorenzo Barbieri
GitHub è da sempre la casa degli sviluppatori, e negli ultimi anni sta rilasciando sempre più funzionalità che ne amplificano ed estendono le capacità. In questa sessione parleremo di come la generative AI di GitHub Copilot e dell'Agent Mode, unita agli strumenti di sicurezza di GitHub Advanced Security permettano agli sviluppatori di scrivere codice migliore, più sicuro, e più integrato con i processi aziendali.

Che succede in Produzione? Logging e monitoring grazie ad Azure Monitor, Open Telemetry e Grafana
Giulio Sciarappa
Ottenere informazioni dai log può rivelarsi un processo lungo e complesso, ma con gli strumenti giusti, possiamo semplificare notevolmente questo percorso. In questa sessione, esploreremo l’approccio più efficace per gestire i log tramite Application Insights e non solo, approfondiremo lo standard Open Telemetry e ci immergeremo nelle dashboard di Azure Grafana per un monitoraggio e un'analisi avanzati. Unisciti a noi in questo viaggio verso l’osservabilità e il monitoring! Ti aspettiamo!


Copilot Studio + MCP: La Nuova Frontiera dell’Automazione Intelligente
Marco Caruso
Giampiero Fedeli
L’automazione del futuro parla il linguaggio naturale. In questa sessione esploreremo come Copilot Studio, integrato con il protocollo MCP, stia rivoluzionando il modo in cui costruiamo soluzioni low-code. Scopriremo come creare agenti AI intelligenti, capaci di comprendere il contesto, trasformare dati complessi in azioni concrete. Un nuovo paradigma che unisce accesso semantico ai dati, intelligenza artificiale conversazionale e automazione avanzata.

Less Code, More Control: come gli LLM semplificano la gestione di Kubernetes
Giovanni Pace
In questo intervento esploreremo come gli LLM (Large Language Models) possano essere utilizzati per interagire in modo naturale e semplificato con un cluster Kubernetes, grazie all'integrazione di connettori sviluppati con un approccio minimal. Partendo da LangChain, vedremo come sia possibile costruire ponti tra prompt in linguaggio naturale e operazioni tecniche reali, rendendo la gestione di ambienti complessi più accessibile, automatizzata e intelligente, anche per chi non è un DevOps. Un viaggio pratico e discorsivo tra intelligenza artificiale e infrastrutture cloud-native.

Framework-Agnostic Design Systems: Using Lit Web Components
Marco Pollaci
Design Systems should outlive frameworks — and Lit makes that possible. In this talk, we’ll explore how to build a design system with Web Components using Lit, and how to seamlessly integrate those components into some of popular js framework.

Refactoring Legacy Code: un approccio DDD
Alberto Acerbis
Si sente sempre parlare dell'applicazione di buoni principi architetturali quando si inizia un nuovo progetto. Ma cosa succede quando si deve affrontare un refactoring? Come possiamo passare da una grossa Big-Ball-of-Mud ad un codice ordinato e manutenibile, magari applicando principi architetturali dal Domain-Driven Design, che sia poi facilmente convertibile ad una soluzione a microservizi? Vediamo come è possibile trasformare un codice legacy un piccolo passo per volta.