Apache Mahout
Apache Mahout est un projet de la fondation Apache visant à créer des implémentations d'algorithmes d'apprentissage automatique distribués. D'abord développé au-dessus de la plate-forme Hadoop[2],[3], Mahout a ensuite utilisé Apache Spark. Mahout est encore en cours de développement ; le nombre d'algorithmes implémentés a rapidement augmenté[4], mais certains manquent encore.
Même si les algorithmes principaux proposés par Mahout pour faire du partitionnement de données et de la classification automatique sont implémentés avec Apache Hadoop en utilisant le paradigme MapReduce, les contributions ne sont pas restreintes à une base Hadoop, mais peuvent aussi être non distribuées ou utiliser un cluster ne tournant pas sur Hadoop. Cela permet l'intégration de projets externes dans Mahout.
Références
modifier- « https://projects.apache.org/json/projects/mahout.json » (consulté le )
- (en) « Introducing Apache Mahout », ibm.com, 2011 [last update] (consulté le )
- (en) « InfoQ: Apache Mahout: Highly Scalable Machine Learning Algorithms », infoq.com, 2011 [last update] (consulté le )
- (en) « Algorithms - Apache Mahout - Apache Software Foundation », cwiki.apache.org, 2011 [last update] (consulté le )