Stream processing
Le Stream processing est un paradigme de programmation, équivalent à dataflow programming (en) et à la programmation réactive[1], qui permet à des applications d'exploiter une forme limitée de parallélisme. Ces applications peuvent utiliser des unités de calcul, tel que les FPUs sur un GPU ou FPGAs sans gestion explicite d'allocation, synchronisation ou communication entre eux.
Applications
modifierUne des applications courantes du stream processing est le traitement analytique des données en temps réel. À l’aide des technologies de messaging comme Apache Kafka et des frameworks de stream processing (comme Apache Flink, Apache Spark ou Kafka Stream par exemple), il est possible de créer des pipelines de traitement de données complexes produisant des résultats en temps réel sur des technologies scalables et résilientes[2].[anglicisme à remplacer]
Références
modifier- (en) « A SHORT INTRO TO STREAM PROCESSING »
- « Architecture data temps réel, par où commencer ? », sur Nexworld, (consulté le ).