
Evaluation per RAG: usare Claude Skills per progettare un dataset Q&A di livello avanzato
Per valutare davvero una RAG non bastano i benchmark pubblici: servono dataset che riflettano difficoltà reali come domande multi-hop, wide e knowledge base eterogenee. In questo articolo mostriamo come abbiamo progettato un framework char-based, chunk-agnostic, con livelli easy/medium e controllo umano, e come usiamo Claude Skills e LLM retriever per generare domande, risposte e passaggi. Il risultato è un dataset pubblico basato su D&D SRD 5.2.1 (più due dataset interni) pensato per testing riproducibile e comparabile di diverse pipeline di RAG.







