Programmation concurrente

Programmation concurrente

La programmation concurrente est un style de programmation tenant compte, dans un programme, de l'existence de plusieurs piles sémantiques. Ces piles peuvent être appelées threads, processus ou tâches. Elles sont matérialisées en machine par une pile d'exécution et un ensemble de données privées. Les threads disposent d'une zone de mémoire partagée alors que les processus sont strictement isolés.

La concurrence est indispensable lorsque l'on souhaite écrire des programmes interagissant avec le monde réel (qui est concurrent) ou tirant parti de multiples unités centrales (couplées, comme dans un système multiprocesseurs, ou distribuées, éventuellement en grille ou en grappe).

Sommaire

Classification

On distingue trois types de concurrence :

  • disjointe : les entités concurrentes ne communiquent et n'interagissent pas,
  • compétitive : un ensemble d'entités concurrentes en compétition pour l'accès à certaines ressources partagées (par exemple le temps CPU, un port d'entrées/sorties, une zone mémoire),
  • coopérative : un ensemble d'entités concurrentes qui coopèrent pour atteindre un objectif commun. Des échanges ont lieu entre les processus. La coopération est un élément primordial de la programmation concurrente.

La programmation concurrente est plus complexe et difficile que la programmation impérative, fonctionnelle ou encore déclarative. En fait, à chacun de ces modèles de programmation, on peut associer une version concurrente, par extension de la sémantique du langage de programmation associé. Par exemple, Prolog a été étendu en Concurrent Prolog, Haskell avec Concurrent Haskell, Java et Ada sont des langages à objets avec des primitives pour la concurrence, etc.

Les techniques spécifiques pour le traitement de la concurrence peuvent être classées en allant de la moins expressive (mais la plus facile à utiliser) à la plus expressive (et la plus complexe). On peut utiliser les niveaux suivants :

  1. concurrence déclarative (langage fonctionnel étendu avec des threads)
  2. concurrence en programmation logique
  3. concurrence déclarative avec des ports et envoi de messages
  4. concurrence impérative avec ports et envoi de messages
  5. concurrence impérative avec mémoire partagée

Problèmes

Le phénomène central introduit par la concurrence est le suivant : dans un programme non concurrent, ou séquentiel, l'ordre d'exécution des instructions élémentaires du programme est un ordre total qui reste le même d'une exécution à l'autre pour les mêmes paramètres en entrée. Dans un programme concurrent, l'exécution forme un ordre partiel. Comme la politique d'ordonnancement est généralement inconnue (elle est déterminée par le noyau du système d'exploitation par exemple) ou incontrôlée, on parle de l'indéterminisme de l'ordre d'exécution.

Les problèmes induits par la concurrence se manifestent dans les cas de la concurrence compétitive et coopérative. À cause de l'indéterminisme de l'exécution, l'accès à des données partagées par les entités concurrentes peut conduire à des incohérences au niveau des relations liant ces données. Pour cela, on a historiquement utilisé différentes primitives de synchronisation comme les mutex, les moniteurs ou encore les sémaphores. Ces différentes primitives implémentent toutes une forme plus ou moins évoluée de verrouillage qui sert à mettre en place la synchronisation des entités concurrentes (sur une ressource ou plus généralement une section critique). Mais leur utilisation ne s'effectue pas sans difficultés, on distingue notamment deux problématiques majeures :

  • interblocages (ou deadlocks) entre entités concurrentes (processus ou threads) qui attendent, par exemple, que l'autre relâche un verrou acquis pour pouvoir progresser,
  • famines (ou livelocks) d'une entité (processus ou thread) essayant d'acquérir une ressource, mais jamais ordonnancé au moment où elle est disponible.

Des abstractions de plus haut niveau ont été développées afin de disposer de l'expressivité de la concurrence sans les inconvénients associés à l'usage des primitives de synchronisation de bas niveau.

Solutions

Pour chaque type de programmation concurrente, on dispose d'abstractions de haut niveau facilitant l'écriture de programmes concurrents :

  • dans le cas de processus en compétition pour des ressources partagées, la notion de transaction a été développée dès les années 70. Les systèmes transactionnels, utilisés principalement pour des bases de données partagées, s'appuient sur la théorie de la sérialisabilité pour garantir un accès concurrent à des ressources partagées (concurrence de type 4 et 5). La mémoire transactionnelle logicielle (STM) est une tentative pour appliquer ce modèle des transactions d'une façon plus générale à toute opération sur la mémoire, elle présente plusieurs avantages sur l'approche classique par verrous et connaît depuis peu un grand regain d'intérêt.
  • dans le cas de processus en coopération en vue d'un but commun, au moins deux techniques ont fait leurs preuves : la communication inter-processus utilisant exclusivement l'envoi de messages, et la synchronisation dataflow (au moyen de variables spéciales de type future ou variable logique). Les langages de programmation Erlang ou Oz permettent d'écrire des applications concurrentes et distribuées, avec un soin particulier apporté aux questions de gestion d'exception. Erlang et Oz exploitent le principe de l'envoi de messages, et Oz offre de plus la synchronisation dataflow (c’est-à-dire l'ordonnancement dynamique des threads en fonction de la disponibilité des données).

Voir aussi

  • Calcul distribué : la concurrence est souvent liée à la distribution. Un programme dont l'exécution est distribuée sur plusieurs hôtes est intrinsèquement concurrent. Pourtant, ce n'est pas toujours le cas ; l'utilisation de protocoles de communication entre parties distribuées d'un programme, comme les RPC (appels de procédure à distance) ou RMI (invocation de méthode à distance), peut rendre non-concurrent un programme distribué.
  • Calcul parallèle
  • Therac-25, un cas concret d'accidents liés à une mauvaise implémentation
  • distcc, distribution des tâches de compilation

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Programmation concurrente de Wikipédia en français (auteurs)

Игры ⚽ Поможем написать курсовую

Regardez d'autres dictionnaires:

  • Couplage Fort (Programmation Concurrente) —  Pour l’article homonyme, voir Couplage.  Problèmes classiques des méthodes de synchronisation …   Wikipédia en Français

  • Couplage fort (programmation concurrente) —  Pour l’article homonyme, voir Couplage.  Le couplage fort se produit lorsqu un algorithme réalise un passage explicite de la main (flux de contrôle) entre les fils d exécution (thread) souhaitant entrer dans une section critique. Dans… …   Wikipédia en Français

  • Programmation — informatique Pour les articles homonymes, voir Programmation (homonymie). La programmation dans le domaine informatique est l ensemble des activités qui permettent l écriture des programmes informatiques. C est une étape importante de la… …   Wikipédia en Français

  • Programmation objet — Programmation orientée objet La programmation orientée objet (POO) ou programmation par objet, est un paradigme de programmation informatique qui consiste en la définition et l assemblage de briques logicielles appelées objets ; un objet… …   Wikipédia en Français

  • Programmation orientee objet — Programmation orientée objet La programmation orientée objet (POO) ou programmation par objet, est un paradigme de programmation informatique qui consiste en la définition et l assemblage de briques logicielles appelées objets ; un objet… …   Wikipédia en Français

  • Programmation à objets — Programmation orientée objet La programmation orientée objet (POO) ou programmation par objet, est un paradigme de programmation informatique qui consiste en la définition et l assemblage de briques logicielles appelées objets ; un objet… …   Wikipédia en Français

  • Programmation imperative — Programmation impérative En informatique, la programmation impérative est un paradigme de programmation qui décrit les opérations en termes de séquences d instructions exécutées par l ordinateur pour modifier l état du programme. Sommaire 1… …   Wikipédia en Français

  • Programmation Orientée Aspect — La programmation orientée aspect (POA, en anglais aspect oriented programming AOP) est un paradigme de programmation qui permet de séparer les considérations techniques (aspect en anglais) des descriptions métier dans une application. Par exemple …   Wikipédia en Français

  • Programmation orientee aspect — Programmation orientée aspect La programmation orientée aspect (POA, en anglais aspect oriented programming AOP) est un paradigme de programmation qui permet de séparer les considérations techniques (aspect en anglais) des descriptions métier… …   Wikipédia en Français

  • Programmation procedurale — Programmation procédurale La programmation procédurale est un paradigme de programmation basé sur le concept d appel procédural. Une procédure, aussi appelée routine, sous routine ou fonction (à ne pas confondre avec les fonctions de la… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”