Imagine AI that collaborates with humans as a transparent ally. 🤝 This is the vision of the XMANAI - EU Project. We celebrated a major milestone at our recent Final Review Meeting, expertly coordinated by TXT E-TECH and held at the TXT Group headquarters in Milan. Representatives from the European Commission joined us to acknowledge XMANAI’s commitment to a human-centric, trustworthy AI designed for real-world manufacturing. 🏭 By advocating for "glass box" models, XMANAI empowers humans to understand AI's reasoning and gain critical insights.💡 Showcasing four practical applications, XMANAI is revolutionizing the manufacturing value chain with Explainable AI, all while upholding European values and principles! #xmanai #artificialintelligence #explainableai #xai #ai
XMANAI - EU Project
Atividades dos serviços de tecnologia da informação
Making AI Understandable
Sobre nós
Moving from ‘black box’ to ‘glass box’: What is artificial intelligence (AI) and how does it work? For many people, these questions are not easy to answer: this is due to the fact that many machine learning and deep learning algorithms cannot be examined after their execution. The EU-funded XMANAI project will focus on explainable AI, a concept that contradicts the idea of the ‘black box’ in machine learning, where even the designers cannot explain why the AI reaches at a specific decision. XMANAI will carve out a ‘human-centric’, trustful approach that will be tested in real-life manufacturing cases. The aim is to transform the manufacturing value chain with ‘glass box’ models that are explainable to a ‘human in the loop’ and produce value-based explanations. This project has received funding from the European Union´s Horizon 2020 research and innovation programme under Grant Agreement No 957362.
- Site
-
http://www.ai4manufacturing.eu
Link externo para XMANAI - EU Project
- Setor
- Atividades dos serviços de tecnologia da informação
- Tamanho da empresa
- 11-50 funcionários
- Sede
- Almada
- Tipo
- Sociedade
- Especializações
- Manufacturing, Explainable Artificial Intelligence, Decision Support, Graph Machine Learning, Graph Deep Learning e Hybrid Machine Learning
Localidades
Atualizações
-
XMANAI - EU Project compartilhou isso
🎉 Exciting News! 🚀 We are thrilled to announce the successful completion of the XMANAI project, a pioneering European initiative that has been a significant milestone for us at Knowledgebiz! 📢 As the Dissemination & Communication leader, we have driven the success of all outreach efforts, ensuring that the project’s achievements reached a wide audience. 🤖 On the technical front, Knowledgebiz was pivotal in developing core AI bundles for algorithm lifecycle management and implementing modules for industrial asset and Knowledge graphs modeling. Our initial contributions in platform requirements and AI scenario definitions laid the groundwork for this remarkable journey. 🌍 We are immensely proud to have played such integral roles in XMANAI - EU Project and look forward to applying our newfound insights to future projects. Thank you to everyone who contributed to this success! #XMANAI #Knowledgebiz #AI #Innovation #Technology #ExplainableAI
-
XMANAI - EU Project compartilhou isso
Cosa si intende per #ExplainableAI, o IA spiegabile? E perché è diventata fondamentale nella trasformazione del settore manifatturiero verso l'Industria 5.0? Automazione News, magazine specializzato in automazione digitale di fabbrica, su questo tema ha intervistato i nostri colleghi Linda Napoletano, Director e Responsabile dell'Area Maufacturing, e Andrea Capaccioli, Senior Consultant di Deep Blue. “All’interno di un team di lavoro la fiducia tra i componenti è fondamentale per raggiungere gli obiettivi - ha dichiarato Linda Napoletano - La fiducia si costruisce con il tempo e la conoscenza. Non è diverso con l’#AI quale nuova componente di un team verso la quale si deve creare fiducia; in quest'ottica l’AI spiegabile, aiutando a conoscere meglio l’AI, può dare un valido supporto alla sua diffusione”. Un esempio concreto di come l'IA Spiegabile possa cambiare e migliorare l'industria è contenuto nel progetto di ricerca XMANAI - EU Project, in cui Deep Blue è coinvolta: “XMANAI si concentra sul concetto dell’AI spiegabile, ovvero un’AI trasparente e costruita su modelli che siano comprensibili sia da parte di data scientist, quindi figure con competenze tecniche specifiche, sia da parte di utenti finali, cioè i destinatari delle applicazioni di AI. In questo modo si crea la fiducia nei sistemi” spiega Andrea Capaccioli. 👉 L'articolo completo: https://lnkd.in/dvm6XQSV Ringraziamo Nicoletta Buora per l'ottima intervista!
-
XMANAI - EU Project compartilhou isso
Imagine #AI that works alongside humans as a transparent partner. This is the future XMANAI - EU Project is building, and its latest Final Review, coordinated by TXT E-TECH, took a significant step forward as we concluded the project today at the TXT Group headquarters in Milan. Today, we proudly welcomed representatives from the European Commission to support XMANAI’s scope and results to obtain the goal of a #humancentric, trustworthy approach built for real-world manufacturing – championing "glass box" models, where humans can understand the AI's reasoning and gain valuable insights. XMANAI placed #ExplainableAI at the service of manufacturing and human progress, respecting European values and principles with the mentality that 'our AI is only as good as we are'. Demonstrated in four real-life cases involving CNH, Whirlpool, and Ford, XMANAI intended to shift the manufacturing value chain towards the amplifying AI era. Ready to push boundaries with #XAI? Learn more about our commitment to revolutionising manufacturing here ➡️ https://lnkd.in/drVJ8Szz
-
There's a 🆕 blog post on XMANAI's website! ✅ This blog post provides recommendations for expanding and applying the XMANAI concept on a larger scale and across different industries. Learn more about it here ⤵️ https://lnkd.in/ddkbgzNU #xmanai #artificialintelligence #explainableai #xai #ai
-
XMANAI - EU Project compartilhou isso
Professor at NTUA, Director of Information Management Unit, ICCS Trustworthy AI, Human-centered AI, Business Analytics, Decision Support
The #trustworthiness of #generativeAI is a crucial topic for our future, so it is exciting that the last couple of days we saw two important announcements from across the world: • In the US, the National Institute of Standards and Technology (NIST) announced ARIA (Assessing Risks and Impacts of AI), an evaluation program for safe and #trustworthy AI. ARIA will assess models and systems submitted by technology developers from around the world and is sector and task agnostic. It can provide direct knowledge about how AI capabilities (in model testing) connect to risks (in red teaming) and positive and negative impacts (in regular use field testing) in the real world. ARIA expands on the AI Risk Management Framework, which NIST released in January 2023, and helps to operationalize the framework’s risk measurement function, which recommends that quantitative and qualitative techniques be used to analyze and monitor AI risk and impacts. Check out the ARIA website is live https://lnkd.in/eYkCDcsC • In Singapore, the AI Verify Foundation and the IMDA published the report "Model Al Governance Framework for Generative Al - Fostering a Trusted Ecosystem," that outlines 9 dimensions to "create a trusted environment – one that enables end-users to use Generative AI confidently and safely, while allowing space for cutting-edge innovation." (the 9 dimensions are: Accountability, Data, Trusted Development and Deployment, Incident Reporting, Testing and Assurance, Security, Content Provenance, Safety and Alignment R&D, AI for Public Good). Check out the framework here: https://lnkd.in/dMwTdhkG Looking forward to the #trusted design/development/deployment of #GenerativeAI !
-
XMANAI - EU Project compartilhou isso
#IntelligenzaArtificiale: trasparenza e fiducia per il manifatturiero italiano con XMANAI - EU Project Deep Blue, insieme al consorzio europeo del Progetto XMANAI coordinato da TXT E-Solutions spa, è impegnata nel migliorare il modo in cui le macchine e gli esseri umani interagiscono nell’industria manifatturiera. Attraverso la cosiddetta Intelligenza Artificiale Spiegabile (XAI) – dall’inglese #ExplainableAI – l’obiettivo è di eliminare le “scatole nere” tipiche degli algoritmi di IA, consentendo agli operatori di comprendere appieno il processo decisionale delle macchine. Una chiarezza che risulta fondamentale per aumentare la fiducia nelle nuove tecnologie da parte di chi le andrà ad utilizzare, soprattutto in settori, come il manifatturiero, in cui le decisioni automatizzate possono avere un impatto significativo sulla sicurezza e la produttività. IL PROGETTO XMANAI Il Progetto XMANAI, frutto della collaborazione tra 15 partner provenienti da sette Paesi europei, con competenze provenienti dalla ricerca, dall’industria e dall’accademia, ha come obiettivo la risoluzione dei problemi di produzione e dell’innalzamento del livello di fiducia nell’innovazione tecnologica attarverso l'IA Speigabile. All’interno del progetto, Deep Blue è impegnata nel definire gli scenari futuri in cui è coinvolta l’Intelligenza Artificiale, e nello studiare le possibili interazioni tra l’utente e l’IA per offrirne la massima comprensione, per limitare l’errore umano e migliorare l’efficienza complessiva. “In XMANAI abbiamo lavorato alla visualizzazione dei dati, testando rappresentazioni dell’esito di alcuni passaggi interni e dei risultati delle analisi dei modelli di IA. Questo ci ha permesso di supportare la comprensione del processo decisionale degli algoritmi e di evidenziare quali input hanno guidato le previsioni, fornendo così una chiara spiegazione dei risultati ottenuti e garantendo una maggiore trasparenza e comprensione. Questo risultato si inserisce all’interno dell’idea che abbiamo in Deep Blue di sviluppare strumenti e metodologie per la progettazione di esperienze d’uso innovative delle IA, in special modo nel settore manufatturiero” ha commentato Linda Napoletano, Director e responsabile dell’Area Manufacturing in Deep Blue. IL CASO STUDIO ITALIANO: CNH La collaborazione con CNH Industrial ha visto la realizzazione di un caso di studio presso lo stabilimento di Modena. Il caso studio si è concentrato sui tempi di fermo delle macchine che interrompono la produzione, e sulla programmazione della manutenzione, un problema comune a tantissime aziende manifatturiere e che potrebbe essere risolto con l’uso della piattaforma XMANAI. Grazie al supporto della tecnologia XAI, gli operatori possono diagnosticare gli errori della macchina e prevedere in anticipo la fine della vita dei componenti, ottimizzando così l'efficienza produttiva e riducendo i costi di manutenzione.
-
We are very proud of the CNH Industrial achievements in the XMANAI pilot!
CNH Demonstrator - Final Video
https://www.youtube.com/
-
New video on our YouTube channel! 🎥 In this video, explore CNH's participation in the XMANAI project, alongside discussions on engaging with maintenance engineers and maintainers to enhance operational efficiency! 🎉 #xmanai #artificialintelligence #ai #xai #cnh
-
XMANAI - EU Project compartilhou isso
Excited to be part of the XMANAI - EU Project with CNH Industrial and XiLAB - X-in-the Loop Simulation Lab! Exploring eXplainable AI (XAI) has been enlightening. In today's manufacturing industry, where complex decisions are driven by AI systems, understanding the "why" behind AI's recommendations is crucial. XAI plays a pivotal role in demystifying these black-box algorithms, providing insights into their decision-making processes. Check out the article to explore XAI's transformative potential in manufacturing! #CNH #XMANAI #XAI #Manufacturing #AI #Transparency #Innovation
We are back with A Sustainable Year, our annual magazine on sustainability and innovation. The first story explains how humans can learn to trust the recommendations of artificial intelligence (AI). CNH is exploring the potential of explainable AI (XAI) with the XMANAI (eXplainable MANufacturing AI) project in San Matteo site near our plant in Modena, Italy. Included in this story is also an interview with academic expert, Dr. Fabio Grandi, from the University of Modena and Reggio Emilia. Read our ‘Building trust in AI’ story below and stay tuned for the next episodes! https://bit.ly/44cpNe8