17.7. queue — File synchronisée

Code source : Lib/queue.py


Le module queue implémente des files multi-productrices et multi-consommatrices. C’est particulièrement utile en programmation multi-thread, lorsque les informations doivent être échangées sans risques entre plusieurs threads. La classe Queue de ce module implémente tout le vérouillage nécessaire. Cela dépend de la disponibilité du support des threads en Python; voir le module threading.

Le module implémente trois types de files qui différent par l’ordre dans lequel les éléments en sont extraits. Dans une file FIFO, les premièrs éléments ajoutés sont les premiers extraits. Dans une file LIFO, le dernier élément ajouté est le premier élément extrait (se comporte comme une pile). Avec une file de priorité, les entrées restent triés (en utilisant le module heapq) et l’élément ayant la valeur la plus faible est extrait en premier.

En interne, le module utilise des verrous pour bloquer temporairement des fils d’exécution concurrents. Cependant, il n’a pas été conçu pour être réentrant au sein d’un fil d’exécution.

Le module queue définit les classes et les exceptions suivantes :

class queue.Queue(maxsize=0)

Constructeur pour une file FIFO. maxsize est un entier définissant le nombre maximal d’éléments pouvant être mis dans la file. L’insertion sera bloquée lorsque cette borne supérieure sera atteinte, jusqu’à ce que des éléments de la file soient consommés. Si maxsize est inférieur ou égal à 0, la taille de la file sera infinie.

class queue.LifoQueue(maxsize=0)

Constructeur pour une file LIFO. maxsize est un entier définissant le nombre maximal d’éléments pouvant être mis dans la file. L’insertion sera bloquée lorsque cette borne supérieure sera atteinte, jusqu’à ce que des éléments de la file soient consommés. Si maxsize est inférieur ou égal à 0, la taille de la file sera infinie.

class queue.PriorityQueue(maxsize=0)

Constructeur pour une file de priorité. maxsize est un entier définissant le nombre maximal d’éléments pouvant être mis dans la file. L’insertion sera bloquée lorsque cette borne supérieure sera atteinte, jusqu’à ce que des éléments soient consommés. Si maxsize est inférieur ou égal à 0, la taille de la file sera infinie.

Les éléments de valeurs les plus faibles sont extraits en premier (l’élément de valeur la plus faible est celui renvoyé par sorted(list(entries))[0]). Un cas typique est d’utiliser des tuple de la forme : (priority_number, data).

exception queue.Empty

Exception levée lorsque la méthode non bloquante get() (ou get_nowait()) est appelée sur l’objet Queue vide.

exception queue.Full

Exception raised when non-blocking put() (or put_nowait()) is called on a Queue object which is full.

17.7.1. Queue Objects

Queue objects (Queue, LifoQueue, or PriorityQueue) provide the public methods described below.

Queue.qsize()

Return the approximate size of the queue. Note, qsize() > 0 doesn’t guarantee that a subsequent get() will not block, nor will qsize() < maxsize guarantee that put() will not block.

Queue.empty()

Return True if the queue is empty, False otherwise. If empty() returns True it doesn’t guarantee that a subsequent call to put() will not block. Similarly, if empty() returns False it doesn’t guarantee that a subsequent call to get() will not block.

Queue.full()

Return True if the queue is full, False otherwise. If full() returns True it doesn’t guarantee that a subsequent call to get() will not block. Similarly, if full() returns False it doesn’t guarantee that a subsequent call to put() will not block.

Queue.put(item, block=True, timeout=None)

Put item into the queue. If optional args block is true and timeout is None (the default), block if necessary until a free slot is available. If timeout is a positive number, it blocks at most timeout seconds and raises the Full exception if no free slot was available within that time. Otherwise (block is false), put an item on the queue if a free slot is immediately available, else raise the Full exception (timeout is ignored in that case).

Queue.put_nowait(item)

Equivalent to put(item, False).

Queue.get(block=True, timeout=None)

Remove and return an item from the queue. If optional args block is true and timeout is None (the default), block if necessary until an item is available. If timeout is a positive number, it blocks at most timeout seconds and raises the Empty exception if no item was available within that time. Otherwise (block is false), return an item if one is immediately available, else raise the Empty exception (timeout is ignored in that case).

Queue.get_nowait()

Equivalent to get(False).

Two methods are offered to support tracking whether enqueued tasks have been fully processed by daemon consumer threads.

Queue.task_done()

Indicate that a formerly enqueued task is complete. Used by queue consumer threads. For each get() used to fetch a task, a subsequent call to task_done() tells the queue that the processing on the task is complete.

If a join() is currently blocking, it will resume when all items have been processed (meaning that a task_done() call was received for every item that had been put() into the queue).

Raises a ValueError if called more times than there were items placed in the queue.

Queue.join()

Blocks until all items in the queue have been gotten and processed.

The count of unfinished tasks goes up whenever an item is added to the queue. The count goes down whenever a consumer thread calls task_done() to indicate that the item was retrieved and all work on it is complete. When the count of unfinished tasks drops to zero, join() unblocks.

Example of how to wait for enqueued tasks to be completed:

def worker():
    while True:
        item = q.get()
        if item is None:
            break
        do_work(item)
        q.task_done()

q = queue.Queue()
threads = []
for i in range(num_worker_threads):
    t = threading.Thread(target=worker)
    t.start()
    threads.append(t)

for item in source():
    q.put(item)

# block until all tasks are done
q.join()

# stop workers
for i in range(num_worker_threads):
    q.put(None)
for t in threads:
    t.join()

Voir aussi

Class multiprocessing.Queue
A queue class for use in a multi-processing (rather than multi-threading) context.

collections.deque is an alternative implementation of unbounded queues with fast atomic append() and popleft() operations that do not require locking.