
Lessons from Testing Contextual Retrieval on Multiple Datasets
We tested Contextual Retrieval across multiple datasets to understand whether it still improves RAG systems in 2026, compared to base retrieval and modern rerankers. Here's what we found

Lessons from Testing Contextual Retrieval on Multiple Datasets
We tested Contextual Retrieval across multiple datasets to understand whether it still improves RAG systems in 2026, compared to base retrieval and modern rerankers. Here's what we found

Cosa abbiamo imparato testando la Contextual Retrieval su diversi dataset
Abbiamo testato la Contextual Retrieval su diversi dataset per capire se nel 2026 migliora davvero i sistemi RAG, confrontandola con il retrieval base e con l’aggiunta di reranker moderni. Ecco cosa abbiamo scoperto

RAG Evaluation: Using Claude Skills to craft a truly challenging Q&A set
To truly evaluate a RAG system, public benchmarks aren’t enough—you need datasets that reflect real-world difficulty, including multi-hop questions, wide reasoning, and heterogeneous knowledge bases. In this article, we show how we designed a char-based, chunk-agnostic framework with easy/medium difficulty levels and human validation, leveraging Claude Skills and LLM retrievers to generate questions, answers, and evidence spans. The result is a public dataset based on D&D SRD 5.2.1 (plus two internal datasets), built for reproducible and comparable RAG pipeline testing.

Evaluation per RAG: usare Claude Skills per progettare un dataset Q&A di livello avanzato
Per valutare davvero una RAG non bastano i benchmark pubblici: servono dataset che riflettano difficoltà reali come domande multi-hop, wide e knowledge base eterogenee. In questo articolo mostriamo come abbiamo progettato un framework char-based, chunk-agnostic, con livelli easy/medium e controllo umano, e come usiamo Claude Skills e LLM retriever per generare domande, risposte e passaggi. Il risultato è un dataset pubblico basato su D&D SRD 5.2.1 (più due dataset interni) pensato per testing riproducibile e comparabile di diverse pipeline di RAG.

Oggi lanciamo Datapizza AI - il framework open source per portare la Generative AI in azienda
Nasce Datapizza AI: il framework open-source per costruire sistemi multi-agent AI e soluzioni RAG pronte per la produzione, che abbiamo deciso di rilasciare open source per tutti.