"re" --- Operações com expressões regulares
*******************************************

**Código-fonte:** Lib/re.py

======================================================================

Este módulo fornece operações para correspondência de expressões
regulares semelhantes às encontradas em Perl. O nome do módulo vem das
iniciais do termo em inglês *regular expressions*, também
frequentemente chamadas de *regex*.

Tanto os padrões quanto as strings a serem pesquisados podem ser
strings Unicode ("str") assim como strings de 8 bits ("bytes"). No
entanto, strings Unicode e strings de 8 bits não podem ser misturadas:
ou seja, você não pode corresponder uma string Unicode com um padrão
de bytes ou vice-versa; da mesma forma, ao solicitar uma substituição,
a string de substituição deve ser do mesmo tipo que o padrão e a
string de pesquisa.

Expressões regulares usam o caractere de contrabarra ("'\'") para
indicar formas especiais ou para permitir que caracteres especiais
sejam usados sem invocar seu significado especial. Isso colide com o
uso em Python do mesmo caractere para o mesmo propósito em literais de
string; por exemplo, para corresponder a uma contrabarra literal,
pode-se ter que escrever "'\\\\'" como a string de padrão, porque a
expressão regular deve ser "\\", e cada contrabarra deve ser expressa
como "\\" dentro de um literal de string Python regular. Além disso,
observe que quaisquer sequências de escape inválidas no uso do Python
da contrabarra em literais de string agora levantam uma exceção
"DeprecationWarning" e no futuro isso se tornará um "SyntaxError".
Esse comportamento acontecerá mesmo se for uma sequência de escape
válida para uma expressão regular.

A solução é usar a notação de string bruta do Python para padrões de
expressão regular; as contrabarras não são tratadas de nenhuma maneira
especial em uma string literal com o prefixo "'r'". Portanto, "r"\n""
é uma string de dois caracteres contendo "'\'" e "'n'", enquanto
""\n"" é uma string de um caractere contendo uma nova linha.
Normalmente, os padrões serão expressos em código Python usando esta
notação de string bruta.

É importante notar que a maioria das operações de expressão regular
estão disponíveis como funções e métodos em nível de módulo em
expressões regulares compiladas. As funções são atalhos que não exigem
que você compile um objeto de expressão regular primeiro, mas perdem-
se alguns parâmetros de ajuste fino.

Ver também:

  O módulo de terceiros regex possui uma API compatível com o módulo
  da biblioteca padrão "re", mas oferece funcionalidades adicionais e
  um suporte mais completo a Unicode.


Sintaxe de expressão regular
============================

Uma expressão regular (ou ER) especifica um conjunto de strings que
corresponde a ela; as funções neste módulo permitem que você verifique
se uma determinada string corresponde a uma determinada expressão
regular (ou se uma determinada expressão regular corresponde a uma
determinada string, o que resulta na mesma coisa).

As expressões regulares podem ser concatenadas para formar novas
expressões regulares; se *A* e *B* forem expressões regulares, então
*AB* também será uma expressão regular. Em geral, se uma string *p*
corresponder a *A* e outra string *q* corresponder a *B*, a string
*pq* corresponderá a AB. Isso é válido, a menos que *A* ou *B*
contenham operações de baixa precedência; condições de contorno entre
*A* e *B*; ou ter referências de grupo numeradas. Assim, expressões
complexas podem ser facilmente construídas a partir de expressões
primitivas mais simples, como as descritas aqui. Para obter detalhes
sobre a teoria e implementação de expressões regulares, consulte o
livro de Friedl [Frie09], ou quase qualquer livro sobre construção de
compiladores.

Segue uma breve explicação do formato das expressões regulares. Para
mais informações e uma apresentação mais suave, consulte o tutorial de
Expressões Regulares.

As expressões regulares podem conter caracteres especiais e comuns. A
maioria dos caracteres comuns, como "'A'", "'a'" ou "'0'", são as
expressões regulares mais simples; eles simplesmente se correspondem.
Você pode concatenar caracteres comuns, de forma que "último"
corresponda à string "'último'". (No restante desta seção,
escreveremos ERs "neste estilo especial", geralmente sem aspas, e
strings para serem correspondidas "'entre aspas simples'".)

Alguns caracteres, como "'|'" ou "'('", são especiais. Os caracteres
especiais representam classes de caracteres comuns ou afetam como as
expressões regulares em torno deles são interpretadas.

Qualificadores de repetição ("*", "+", "?", "{m,n}" etc) não podem ser
aninhados diretamente. Isso evita ambiguidade com o sufixo modificador
não guloso "?", e com outros modificadores em outras implementações.
Para aplicar uma segunda repetição a uma repetição interna, podem ser
usados parênteses. Por exemplo, a expressão "(?:a{6})*" corresponde a
qualquer múltiplo de seis caracteres "'a'".

Os caracteres especiais são:

"."
   (Ponto.) No modo padrão, corresponde a qualquer caractere, exceto
   uma nova linha. Se o sinalizador "DOTALL" foi especificado, ele
   corresponde a qualquer caractere, incluindo uma nova linha.

"^"
   (Sinal de circunflexo.) Corresponde ao início da string, e no modo
   "MULTILINE" também corresponde imediatamente após cada nova linha.

"$"
   Corresponde ao final da string ou logo antes da nova linha no final
   da string, e no modo "MULTILINE" também corresponde antes de uma
   nova linha. "foo" corresponde a 'foo' e 'foobar', enquanto a
   expressão regular "foo$" corresponde apenas a 'foo'. Mais
   interessante, pesquisar por "foo.$" em "'foo1\nfoo2\n'" corresponde
   a 'foo2' normalmente, mas 'foo1' no modo "MULTILINE"; procurando
   por um único "$" em "'foo\n'" encontrará duas correspondências
   (vazias): uma logo antes da nova linha e uma no final da string.

"*"
   Faz a ER resultante corresponder a 0 ou mais repetições da ER
   anterior, tantas repetições quantas forem possíveis. "ab*"
   corresponderá a 'a', 'ab' ou 'a' seguido por uma quantidade
   qualquer de 'b's.

"+"
   Faz com que a ER resultante corresponda a 1 ou mais repetições da
   ER anterior. "ab+" irá corresponder a 'a' seguido por qualquer
   número diferente de zero de 'b's; não corresponderá apenas a 'a'.

"?"
   Faz a ER resultante corresponder a 0 ou 1 repetição da ER anterior.
   "ab?" irá corresponder a 'a' ou 'ab'.

"*?", "+?", "??"
   Os qualificadores "'*'", "'+'" e "'?'" são todos *gulosos*; eles
   correspondem ao máximo de texto possível. Às vezes, esse
   comportamento não é desejado; se a ER "<.*>" for correspondida com
   "'<a> b <c>'", ela irá corresponder a toda a string, e não apenas
   "'<a>'". Adicionar "?" após o qualificador faz com que ele execute
   a correspondência da maneira *não gulosa* ou *minimalista*; tão
   *poucos* caracteres quanto possível serão correspondidos. Usando a
   "<.*?>" irá corresponder apenas "'<a>'".

"{m}"
   Especifica que exatamente *m* cópias da ER anterior devem ser
   correspondidas; menos correspondências fazem com que toda a ER não
   seja correspondida. Por exemplo, "a{6}" irá corresponder exatamente
   a seis caracteres "'a'", mas não a cinco.

"{m,n}"
   Faz a ER resultante corresponder de *m* a *n* repetições da ER
   anterior, tentando corresponder ao máximo de repetições possível.
   Por exemplo, "a{3,5}" irá corresponder de 3 a 5 caracteres "'a'". A
   omissão de *m* especifica um limite inferior de zero e a omissão de
   *n* especifica um limite superior infinito. Como exemplo, "a{4,}b"
   irá corresponder a "'aaaab'" ou mil caracteres "'a'" seguidos por
   um "'b'", mas não "'aaab'". A vírgula não pode ser omitida ou o
   modificador será confundido com a forma descrita anteriormente.

"{m,n}?"
   Faz com que a ER resultante corresponda de *m* a *n* repetições da
   ER precedente, tentando corresponder o mínimo de *poucas*
   repetições possível. Esta é a versão não gulosa do qualificador
   anterior. Por exemplo, na string de 6 caracteres "'aaaaaa'",
   "a{3,5}" irá corresponder a 5 caracteres "'a'", enquanto "a{3,5}?"
   corresponderá apenas a 3 caracteres.

"\"
   Ou anula o efeito de caracteres especiais (permitindo a você
   corresponder caracteres como "'*'", "'?'" e assim por diante), ou
   sinaliza uma sequência especial; sequências especiais são
   discutidas abaixo.

   Se você não estiver usando uma string bruta para expressar o
   padrão, lembre-se de que o Python também usa a contrabarra como uma
   sequência de escape em literais de string; se a sequência de escape
   não for reconhecida pelo analisador sintático do Python, a
   contrabarra e o caractere subsequente serão incluídos na string
   resultante. No entanto, se Python reconhecer a sequência
   resultante, a contrabarra deve ser repetida duas vezes. Isso é
   complicado e difícil de entender, portanto, é altamente
   recomendável que você use strings brutas para todas as expressões,
   exceto as mais simples.

"[]"
   Usado para indicar um conjunto de caracteres. Em um conjunto:

   * Caracteres podem ser listados individualmente, por exemplo,
     "[amk]" vai corresponder a "'a'", "'m'" ou "'k'".

   * Intervalos de caracteres podem ser indicados fornecendo dois
     caracteres e separando-os por "'-'", por exemplo "[a-z]" irá
     corresponder a qualquer letra ASCII minúscula, "[0-5][0-9]" irá
     corresponder a todos os números de dois dígitos de "00" a "59", e
     "[0-9A-Fa-f]" irá corresponder a qualquer dígito hexadecimal. Se
     "-" for precedido de uma contrabarra (por exemplo, "[a\-z]") ou
     se for colocado como o primeiro ou último caractere (por exemplo,
     "[-a]" ou "[a-]"), ele corresponderá a um literal "'-'".

   * Os caracteres especiais perdem seu significado especial dentro
     dos conjuntos. Por exemplo, "[(+*)]" corresponderá a qualquer um
     dos caracteres literais "'('", "'+'", "'*'" ou "')'".

   * Classes de caracteres como "\w" ou "\S" (definidas abaixo) também
     são aceitas dentro de um conjunto, embora os caracteres que
     correspondem dependam do modo "ASCII" ou "LOCALE" estar em vigor.

   * Os caracteres que não estão dentro de um intervalo podem ser
     correspondidos *complementando* o conjunto. Se o primeiro
     caractere do conjunto for "'^'", todos os caracteres que *não*
     estiverem no conjunto serão correspondidos. Por exemplo, "[^5]"
     irá corresponder a qualquer caractere exceto "'5'", e "[^^]" irá
     corresponder a qualquer caractere exceto "'^'". "^" não tem
     nenhum significado especial se não for o primeiro caractere do
     conjunto.

   * Para corresponder a um "']'" literal dentro de um conjunto,
     preceda-o com uma contrabarra ou coloque-o no início do conjunto.
     Por exemplo, "[()[\]{}]" e "[]()[{}]" ambos corresponderão a um
     parêntese.

   * Suporte para conjuntos aninhados e operações de conjunto como no
     Padrão Técnico do Unicode #18 podem ser adicionados no futuro.
     Isso mudaria a sintaxe, então para facilitar essa mudança uma
     "FutureWarning" será levantada em casos ambíguos por enquanto.
     Isso inclui conjuntos que começam com um "'['" literal ou
     contendo sequências de caracteres literais "'--'", "'&&'", "'~~'"
     e "'||'". Para evitar um aviso, use uma contrabarra antes deles.

   Alterado na versão 3.7: "FutureWarning" é levantada se um conjunto
   de caracteres contém construções que mudarão semanticamente no
   futuro.

"|"
   "A|B", onde *A* e *B* podem ser ERs arbitrárias, cria uma expressão
   regular que corresponderá a *A* ou *B*. Um número arbitrário de ERs
   pode ser separado por "'|'" desta forma. Isso também pode ser usado
   dentro de grupos (veja abaixo). Conforme a string alvo é
   percorrida, ERs separadas por "'|'" são avaliadas da esquerda para
   a direita. Quando um padrão corresponde completamente, essa
   ramificação é aceita. Isso significa que, assim que *A*
   corresponder, *B* não será avaliado posteriormente, mesmo que
   produza uma correspondência geral mais longa. Em outras palavras, o
   operador "'|'" nunca é guloso. Para corresponder a um "'|'"
   literal, use "\|", ou coloque-o dentro de uma classe de caractere,
   como em "[|]".

"(...)"
   Corresponde a qualquer expressão regular que esteja entre
   parênteses e indica o início e o fim de um grupo; o conteúdo de um
   grupo pode ser recuperado após uma correspondência ter sido
   realizada e pode ser correspondido posteriormente na string com a
   sequência especial "\número", descrita abaixo. Para corresponder
   aos literais "'('" ou "')'", use "\(" ou "\)", ou coloque-os dentro
   de uma classe de caracteres: "[(]", "[)]".

"(?...)"
   Esta é uma notação de extensão (um "'?'" após um "'('" não é
   significativo de outra forma). O primeiro caractere após o "'?'"
   determina qual o significado e sintaxe posterior da construção. As
   extensões normalmente não criam um novo grupo; "(?P<nome>...)" é a
   única exceção a esta regra. A seguir estão as extensões atualmente
   implementadas.

"(?aiLmsux)"
   (Uma ou mais letras do conjunto "'a'", "'i'", "'L'", "'m'", "'s'",
   "'u'", "'x'".) O grupo corresponde à string vazia; as letras
   definem os sinalizadores correspondentes: "re.A" (correspondência
   somente ASCII), "re.I" (não diferencia maiúsculas e minúsculas),
   "re.L" (dependente do local), "re.M" (multi-linha), "re.S" (ponto
   corresponde a todos), "re.U" (correspondência Unicode) e "re.X"
   (detalhado), para toda a expressão regular. (Os sinalizadores são
   descritos em Conteúdo do módulo.) Isso é útil se você deseja
   incluir os sinalizadores como parte da expressão regular, em vez de
   passar um argumento *flag* para função "re.compile()". Os
   sinalizadores devem ser usados primeiro na string de expressão.

"(?:...)"
   Uma versão sem captura de parênteses regulares. Corresponde a
   qualquer expressão regular que esteja entre parênteses, mas a
   substring correspondida pelo grupo *não pode* ser recuperada após
   realizar uma correspondência ou referenciada posteriormente no
   padrão.

"(?aiLmsux-imsx:...)"
   (Zero ou mais letras do conjunto "'a'", "'i'", "'L'", "'m'", "'s'",
   "'u'", "'x'", opcionalmente seguido por "'-'" seguido por uma ou
   mais letras de "'i'", "'m'", "'s'", "'x'". ) As letras definem ou
   removem os sinalizadores correspondentes: "re.A" (correspondência
   somente ASCII), "re.I" (não diferencia maiúsculas e minúsculas),
   "re.L" (dependente do local), "re.M" (multi-linhas), "re.S" (ponto
   corresponde a todos), "re.U" (correspondência Unicode) e "re.X"
   (detalhamento), para a parte da expressão. (Os sinalizadores são
   descritos em Conteúdo do módulo.)

   As letras "'a'", "'L'" e "'u'" são mutuamente exclusivas quando
   usadas como sinalizadores em linha, portanto, não podem ser
   correspondidas ou seguir "'-'". Em vez disso, quando um deles
   aparece em um grupo embutido, ele substitui o modo de
   correspondência no grupo anexo. Em padrões Unicode "(?a:...)" muda
   para correspondência somente ASCII, e "(?u:...)" muda para
   correspondência Unicode (padrão). No padrão de byte "(?L:...)" muda
   para a localidade dependendo da correspondência, e "(?a:...)" muda
   para correspondência apenas ASCII (padrão). Esta substituição só
   tem efeito para o grupo estreito em linha e o modo de
   correspondência original é restaurado fora do grupo.

   Novo na versão 3.6.

   Alterado na versão 3.7: As letras "'a'", "'L'" e "'u'" também podem
   ser usadas em um grupo.

"(?P<nome>...)"
   Semelhante aos parênteses regulares, mas a substring correspondida
   pelo grupo é acessível por meio do nome de grupo simbólico *nome*.
   Os nomes de grupo devem ser identificadores Python válidos e cada
   nome de grupo deve ser definido apenas uma vez em uma expressão
   regular. Um grupo simbólico também é um grupo numerado, como se o
   grupo não tivesse um nome.

   Grupos nomeados podem ser referenciados em três contextos. Se o
   padrão for "(?P<citação>['"]).*?(?P=citação)" (ou seja,
   corresponder a uma string entre aspas simples ou duplas):

   +-----------------------------------------+------------------------------------+
   | Contexto de referência ao grupo         | Formas de referenciá-lo            |
   | "citação"                               |                                    |
   |=========================================|====================================|
   | no mesmo padrão                         | * "(?P=citação)" (como mostrado)   |
   |                                         | * "\1"                             |
   +-----------------------------------------+------------------------------------+
   | ao processar a correspondência do       | * "m.group('citação')"  *          |
   | objeto *m*                              | "m.end('citação')" (etc.)          |
   +-----------------------------------------+------------------------------------+
   | em uma string passada para o argumento  | * "\g<citação>"  * "\g<1>"  * "\1" |
   | *repl* de "re.sub()"                    |                                    |
   +-----------------------------------------+------------------------------------+

"(?P=nome)"
   Uma referência anterior a um grupo nomeado; corresponde a qualquer
   texto que corresponda ao grupo anterior denominado *nome*.

"(?#...)"
   Um comentário; o conteúdo dos parênteses é simplesmente ignorado.

"(?=...)"
   Corresponde se "..." corresponder a próxima, mas não consome nada
   da string. Isso é chamado de *asserção preditiva*. Por exemplo,
   "Isaac (?=Asimov)" corresponderá a "'Isaac '" apenas se for seguido
   por "'Asimov'".

"(?!...)"
   Corresponde se "..." não corresponder a próxima. Isso é uma
   *asserção preditiva negativa*. Por exemplo, "Isaac (?!Asimov)"
   corresponderá a "'Isaac '" apenas se *não* for seguido por
   "'Asimov'".

"(?<=...)"
   Corresponde se a posição atual na string for precedida por uma
   correspondência para "..." que termina na posição atual. Isso é
   chamado de *asserção retroativa positiva*. "(?<=abc)def" irá
   encontrar uma correspondência em "'abcdef'", uma vez que a
   expressão regular vai voltar 3 caracteres e verificar se o padrão
   contido corresponde. O padrão contido deve corresponder apenas a
   strings de algum comprimento fixo, o que significa que "abc" ou
   "a|b" são permitidos, mas "a*" e "a{3,4}" não são. Observe que os
   padrões que começam com asserções retroativas positivas não
   corresponderão ao início da string que está sendo pesquisada; você
   provavelmente desejará usar a função "search()" em vez da função
   "match()":

   >>> import re
   >>> m = re.search('(?<=abc)def', 'abcdef')
   >>> m.group(0)
   'def'

   Este exemplo procura por uma palavra logo após um hífen:

   >>> m = re.search(r'(?<=-)\w+', 'spam-egg')
   >>> m.group(0)
   'egg'

   Alterado na versão 3.5: Adicionado suporte para referências de
   grupo de comprimento fixo.

"(?<!...)"
   Corresponde se a posição atual na string não for precedida por uma
   correspondência para "...". Isso é chamado de *asserção retroativa
   negativa*. Semelhante às asserções retroativas positivas, o padrão
   contido deve corresponder apenas a strings de algum comprimento
   fixo. Os padrões que começam com asserções retroativas negativas
   podem corresponder ao início da string que está sendo pesquisada.

"(?(id/nome)padrão-sim|padrão-não)"
   Tentará corresponder com "padrão-sim" se o grupo com determinado
   *id* ou *nome* existir, e com "padrão-não" se não existir. "padrão-
   não" é opcional e pode ser omitido. Por exemplo,
   "(<)?(\w+@\w+(?:\.\w+)+)(?(1)>|$)" é um padrão ruim de
   correspondência de e-mail, que corresponderá com
   "'<usuario@host.com>'" bem como "'usuario@host.com'", mas não com
   "'<usuario@host.com>'" nem "'usuario@host.com>'".

As sequências especiais consistem em "'\'" e um caractere da lista
abaixo. Se o caractere comum não for um dígito ASCII ou uma letra
ASCII, a ER resultante corresponderá ao segundo caractere. Por
exemplo, "\$" corresponde ao caractere "'$'".

"\número"
   Corresponde ao conteúdo do grupo de mesmo número. Os grupos são
   numerados a partir de 1. Por exemplo, "(.+) \1" corresponde a "'de
   de'" ou "'55 55'", mas não "'dede'" (note o espaço após o grupo).
   Esta sequência especial só pode ser usada para corresponder a um
   dos primeiros 99 grupos. Se o primeiro dígito de *número* for 0, ou
   *número* tiver 3 dígitos octais de comprimento, ele não será
   interpretado como uma correspondência de grupo, mas como o
   caractere com *número* de valor octal. Dentro de "'['" e "']'" de
   uma classe de caracteres, todos os escapes numéricos são tratados
   como caracteres.

"\A"
   Corresponde apenas ao início da string.

"\b"
   Corresponde à string vazia, mas apenas no início ou no final de uma
   palavra. Uma palavra é definida como uma sequência de caracteres de
   palavras. Observe que, formalmente, "\b" é definido como a
   fronteira entre um caractere "\w" e um "\W" (ou vice-versa), ou
   entre "\w" e o início/fim da string. Isso significa que
   "r'\bfoo\b'" corresponde a "'foo'", "'foo.'", "'(foo)'", "'bar foo
   baz'", mas não a "'foobar'" ou "'foo3'".

   Por padrão, os alfanuméricos Unicode são aqueles usados nos padrões
   Unicode, mas isso pode ser alterado usando o sinalizador "ASCII".
   Os limites das palavras são determinados pela localidade atual se o
   sinalizador "LOCALE" for usado. Dentro de um intervalo de
   caracteres, "\b" representa o caractere de backspace, para
   compatibilidade com os literais de string do Python.

"\B"
   Corresponde à string vazia, mas apenas quando *não* estiver no
   início ou no final de uma palavra. Isso significa que "r'py\B'"
   corresponde a "'python'", "'py3'", "'py2'", mas não "'py'", "'py.'"
   ou "'py!'". "\B" é exatamente o oposto de "\b", então caracteres de
   palavras em padrões Unicode são alfanuméricos Unicode ou o
   sublinhado, embora isso possa ser alterado usando o sinalizador
   "ASCII". Os limites das palavras são determinados pela localidade
   atual se o sinalizador "LOCALE" for usado.

"\d"
   Para padrões Unicode (str):
      Corresponde a qualquer dígito decimal Unicode (ou seja, qualquer
      caractere na categoria de caractere Unicode [Nd]). Isso inclui
      "[0-9]", e também muitos outros caracteres de dígitos. Se o
      sinalizador "ASCII" for usado, apenas "[0-9]" será
      correspondido.

   Para padrões de 8 bits (isto é, bytes):
      Corresponde a qualquer dígito decimal; isso é equivalente a
      "[0-9]".

"\D"
   Corresponde a qualquer caractere que não seja um dígito decimal.
   Este é o oposto de "\d". Se o sinalizador "ASCII" for usado, isso
   se tornará o equivalente a "[^0-9]".

"\s"
   Para padrões Unicode (str):
      Corresponde a caracteres de espaço em branco Unicode (que inclui
      "[ \t\n\r\f\v]", e também muitos outros caracteres, como, por
      exemplo, os espaços não separáveis exigidos pelas regras de
      tipografia em muitos idiomas). Se o sinalizador "ASCII" for
      usado, apenas "[ \t\n\r\f\v]" é correspondido.

   Para padrões de 8 bits (isto é, bytes):
      Corresponde a caracteres considerados espaços em branco no
      conjunto de caracteres ASCII; isso é equivalente a "[
      \t\n\r\f\v]".

"\S"
   Corresponde a qualquer caractere que não seja um caractere de
   espaço em branco. Este é o oposto de "\s". Se o sinalizador "ASCII"
   for usado, isso se tornará o equivalente a "[^ \t\n\r\f\v]".

"\w"
   Para padrões Unicode (str):
      Corresponde a caracteres de palavras Unicode; isso inclui a
      maioria dos caracteres que podem fazer parte de uma palavra em
      qualquer idioma, bem como números e sublinhado. Se o sinalizador
      "ASCII" for usado, apenas "[a-zA-Z0-9_]" será correspondido.

   Para padrões de 8 bits (isto é, bytes):
      Corresponde a caracteres considerados alfanuméricos no conjunto
      de caracteres ASCII; isso é equivalente a "[a-zA-Z0-9_]". Se o
      sinalizador "LOCALE" for usado, corresponde aos caracteres
      considerados alfanuméricos na localidade atual e o sublinhado.

"\W"
   Corresponde a qualquer caractere que não seja um caractere de
   palavra. Este é o oposto de "\w". Se o sinalizador "ASCII" for
   usado, ele se tornará o equivalente a "[^a-zA-Z0-9_]". Se o
   sinalizador "LOCALE" for usado, corresponde a caracteres que não
   são alfanuméricos na localidade local atual nem o sublinhado.

"\Z"
   Corresponde apenas ao final da string.

A maioria dos escapes padrão suportados por literais de string Python
também são aceitos pelo analisador sintático de expressão regular:

   \a      \b      \f      \n
   \N      \r      \t      \u
   \U      \v      \x      \\

(Observe que "\b" é usado para representar limites de palavras e
significa fazer "backspace" apenas dentro das classes de caracteres.)

As sequências de escape "'\u'", "'\U'" e "'\N'" são reconhecidas
apenas em padrões Unicode. Em padrões de bytes, eles são erros.
Escapes desconhecidos de letras ASCII são reservados para uso futuro e
tratados como erros.

Os escapes octais são incluídos em um formulário limitado. Se o
primeiro dígito for 0, ou se houver três dígitos octais, é considerado
um escape octal. Caso contrário, é uma referência de grupo. Quanto aos
literais de string, os escapes octais têm sempre no máximo três
dígitos.

Alterado na versão 3.3: As sequências de escape "'\u'" e "'\U'" foram
adicionadas.

Alterado na versão 3.6: Escapes desconhecidos consistindo em "'\'" e
uma letra ASCII agora são erros.

Alterado na versão 3.8: A sequência de escape "'\N{nome}'" foi
adicionada. Como em literais de string, ela se expande para o
caractere Unicode nomeado (por exemplo, "'\N{EM DASH}'").


Conteúdo do módulo
==================

O módulo define várias funções, constantes e uma exceção. Algumas das
funções são versões simplificadas dos métodos completos para
expressões regulares compiladas. A maioria das aplicações não triviais
sempre usa a forma compilada.

Alterado na versão 3.6: Constantes de sinalizadores agora são
instâncias de "RegexFlag", que é uma subclasse de "enum.IntFlag".

re.compile(pattern, flags=0)

   Compila um padrão de expressão regular em um objeto expressão
   regular, que pode ser usado para correspondência usando seu
   "match()", "search()" e outros métodos, descritos abaixo.

   O comportamento da expressão pode ser modificado especificando um
   valor *flags*. Os valores podem ser qualquer uma das seguintes
   variáveis, correspondidas usando OU bit a bit (o operador "|").

   A sequência

      prog = re.compile(pattern)
      result = prog.match(string)

   é equivalente a

      result = re.match(pattern, string)

   mas usar "re.compile()" e salvar o objeto expressão regular
   resultante para reutilização é mais eficiente quando a expressão
   será usada várias vezes em um único programa.

   Nota:

     As versões compiladas dos padrões mais recentes passados para
     "re.compile()" e as funções de correspondência em nível de módulo
     são armazenadas em cache, de modo que programas que usam apenas
     algumas expressões regulares por vez não precisam se preocupar em
     compilar expressões regulares.

re.A
re.ASCII

   Faz com que "\w", "\W", "\b", "\B", "\d", "\D", "\s" e "\S"
   executem a correspondência somente ASCII em vez da correspondência
   Unicode completa. Isso é significativo apenas para padrões Unicode
   e é ignorado para padrões de bytes. Corresponde ao sinalizador em
   linha "(?a)".

   Observe que, para compatibilidade com versões anteriores, o
   sinalizador "re.U" ainda existe (bem como seu sinônimo "re.UNICODE"
   e sua contraparte incorporada "(?u)"), mas estes são redundantes em
   Python 3, pois as correspondências são Unicode por padrão para
   strings (e a correspondência Unicode não é permitida para bytes).

re.DEBUG

   Exibe informações de depuração sobre a expressão compilada. Nenhum
   sinalizador em linha correspondente.

re.I
re.IGNORECASE

   Executa uma correspondência que não diferencia maiúsculas de
   minúsculas; expressões como "[A-Z]" também corresponderão a letras
   minúsculas. A correspondência Unicode completa (como "Ü"
   correspondendo a "ü") também funciona, a menos que o sinalizador
   "re.ASCII" seja usado para desabilitar correspondências não ASCII.
   A localidade atual não muda o efeito deste sinalizador a menos que
   o sinalizador "re.LOCALE" também seja usado. Corresponde ao
   sinalizador em linha "(?i)".

   Observe que quando os padrões Unicode "[a-z]" ou "[A-Z]" são usados
   em combinação com o sinalizador "IGNORECASE", eles corresponderão
   às 52 letras ASCII e 4 letras não ASCII adicionais: 'İ' (U+0130,
   letra latina I maiúscula com ponto em cima), 'ı' (U+0131, letra
   latina i minúscula sem ponto), 'ſ' (U+017F, letra latina s
   minúscula longa) e 'K' (U+212A, sinal de Kelvin). Se o sinalizador
   "ASCII" for usado, apenas as letras 'a' a 'z' e 'A' a 'Z' serão
   correspondidas.

re.L
re.LOCALE

   Faz "\w", "\W", "\b", "\B" e a correspondência sem diferença entre
   maiúsculas e minúsculas dependente do local atual. Este sinalizador
   pode ser usado apenas com padrões de bytes. O uso desse sinalizador
   é desencorajado porque o mecanismo de localidade não é confiável,
   ele só lida com uma "cultura" por vez e só funciona com localidades
   de 8 bits. A correspondência Unicode já está habilitada por padrão
   no Python 3 para padrões Unicode (str) e é capaz de lidar com
   diferentes localidades/idiomas. Corresponde ao sinalizador em linha
   "(?L)".

   Alterado na versão 3.6: "re.LOCALE" pode ser usado apenas com
   padrões de bytes e não é compatível com "re.ASCII".

   Alterado na versão 3.7: Objetos expressão regular compilados com o
   sinalizador "re.LOCALE" não dependem mais da localidade em tempo de
   compilação. Apenas a localidade no momento da correspondência afeta
   o resultado da correspondência.

re.M
re.MULTILINE

   Quando especificado, o caractere padrão "'^'" corresponde ao início
   da string e ao início de cada linha (imediatamente após cada nova
   linha); e o caractere padrão "'$'" corresponde ao final da string e
   ao final de cada linha (imediatamente antes de cada nova linha).
   Por padrão, "'^'" corresponde apenas no início da string, e "'$'"
   apenas no final da string e imediatamente antes da nova linha (se
   houver) no final da string. Corresponde ao sinalizador em linha
   "(?m)".

re.S
re.DOTALL

   Faz o caractere especial "'.'" corresponder a qualquer caractere,
   incluindo uma nova linha; sem este sinalizador, "'.'" irá
   corresponder a qualquer coisa *exceto* uma nova linha. Corresponde
   ao sinalizador em linha "(?s)".

re.X
re.VERBOSE

   Este sinalizador permite que você escreva expressões regulares que
   parecem mais agradáveis e são mais legíveis, permitindo que você
   separe visualmente seções lógicas do padrão e adicione comentários.
   O espaço em branco dentro do padrão é ignorado, exceto quando em
   uma classe de caractere, ou quando precedido por uma contrabarra
   sem escape, ou dentro de tokens como "*?", "(?:" ou "(?P<...>".
   Quando uma linha contém um "#" que não está em uma classe de
   caractere e não é precedido por uma contrabarra sem escape, todos
   os caracteres da extremidade esquerda, como "#" até o final da
   linha são ignorados.

   Isso significa que os dois seguintes objetos expressão regular que
   correspondem a um número decimal são funcionalmente iguais:

      a = re.compile(r"""\d +  # the integral part
                         \.    # the decimal point
                         \d *  # some fractional digits""", re.X)
      b = re.compile(r"\d+\.\d*")

   Corresponde ao sinalizador em linha "(?x)".

re.search(pattern, string, flags=0)

   Percorre a *string* procurando o primeiro local onde o padrão
   *pattern* de expressão regular produz uma correspondência e retorna
   um objeto correspondência encontrado. Retorna "None" se nenhuma
   posição na string corresponder ao padrão; observe que isso é
   diferente de encontrar uma correspondência de comprimento zero em
   algum ponto da string.

re.match(pattern, string, flags=0)

   Se zero ou mais caracteres no início da *string* corresponderem ao
   padrão *pattern* da expressão regular, retorna um objeto
   correspondência encontrado. Retorna "None" se a string não
   corresponder ao padrão; observe que isso é diferente de uma
   correspondência de comprimento zero.

   Observe que mesmo no modo "MULTILINE", "re.match()" irá
   corresponder apenas no início da string e não no início de cada
   linha.

   Se você quiser localizar uma correspondência em qualquer lugar em
   *string*, use "search()" (veja também search() vs. match()).

re.fullmatch(pattern, string, flags=0)

   Se toda a *string* corresponder ao padrão *pattern* da expressão
   regular, retorna um objeto correspondência encontrado. Retorna
   "None" se a string não corresponder ao padrão; observe que isso é
   diferente de uma correspondência de comprimento zero.

   Novo na versão 3.4.

re.split(pattern, string, maxsplit=0, flags=0)

   Divide a *string* pelas ocorrências do padrão *pattern*. Se
   parênteses de captura forem usados em *pattern*, o texto de todos
   os grupos no padrão também será retornado como parte da lista
   resultante. Se *maxsplit* for diferente de zero, no máximo
   *maxsplit* divisões ocorrerão e o restante da string será retornado
   como o elemento final da lista.

      >>> re.split(r'\W+', 'Words, words, words.')
      ['Words', 'words', 'words', '']
      >>> re.split(r'(\W+)', 'Words, words, words.')
      ['Words', ', ', 'words', ', ', 'words', '.', '']
      >>> re.split(r'\W+', 'Words, words, words.', 1)
      ['Words', 'words, words.']
      >>> re.split('[a-f]+', '0a3B9', flags=re.IGNORECASE)
      ['0', '3', '9']

   Se houver grupos de captura no separador e ele corresponder ao
   início da string, o resultado começará com uma string vazia. O
   mesmo vale para o final da string:

      >>> re.split(r'(\W+)', '...words, words...')
      ['', '...', 'words', ', ', 'words', '...', '']

   Dessa forma, os componentes do separador são sempre encontrados nos
   mesmos índices relativos na lista de resultados.

   As correspondências vazias para o padrão dividem a string apenas
   quando não adjacente a uma correspondência vazia anterior.

   >>> re.split(r'\b', 'Words, words, words.')
   ['', 'Words', ', ', 'words', ', ', 'words', '.']
   >>> re.split(r'\W*', '...words...')
   ['', '', 'w', 'o', 'r', 'd', 's', '', '']
   >>> re.split(r'(\W*)', '...words...')
   ['', '...', '', '', 'w', '', 'o', '', 'r', '', 'd', '', 's', '...', '', '', '']

   Alterado na versão 3.1: Adicionado o argumento de sinalizadores
   opcionais.

   Alterado na versão 3.7: Adicionado suporte de divisão em um padrão
   que pode corresponder a uma string vazia.

re.findall(pattern, string, flags=0)

   Retorna todas as correspondências não sobrepostas de padrão
   *pattern* na *string*, como uma lista de strings. A *string* é
   verificada da esquerda para a direita e as correspondências são
   retornadas na ordem encontrada. Se um ou mais grupos estiverem
   presentes no padrão, retorna uma lista de grupos; esta será uma
   lista de tuplas se o padrão tiver mais de um grupo. Jogos vazios
   são incluídos no resultado.

   Alterado na versão 3.7: Correspondências não vazias agora podem
   começar logo após uma correspondência vazia anterior.

re.finditer(pattern, string, flags=0)

   Retorna um *iterador* produzindo objetos correspondência sobre
   todas as correspondências não sobrepostas para o padrão *pattern*
   de ER na *string*. A *string* é percorrida da esquerda para a
   direita e as correspondências são retornadas na ordem encontrada.
   Correspondências vazias são incluídas no resultado.

   Alterado na versão 3.7: Correspondências não vazias agora podem
   começar logo após uma correspondência vazia anterior.

re.sub(pattern, repl, string, count=0, flags=0)

   Retorna a string obtida substituindo as ocorrências não sobrepostas
   da extremidade esquerda do padrão *pattern* na *string* pela
   substituição *repl*. Se o padrão não for encontrado, *string* será
   retornado inalterado. *repl* pode ser uma string ou uma função; se
   for uma string, qualquer escape de contrabarra será processado. Ou
   seja, "\n" é convertido em um único caractere de nova linha, "\r" é
   convertido em um retorno de carro e assim por diante. Escapes
   desconhecidos de letras ASCII são reservados para uso futuro e
   tratados como erros. Outros escapes desconhecidos como "\&" são
   deixados como estão. Referências anteriores, como "\6", são
   substituídos pela substring correspondida pelo grupo 6 no padrão.
   Por exemplo:

      >>> re.sub(r'def\s+([a-zA-Z_][a-zA-Z_0-9]*)\s*\(\s*\):',
      ...        r'static PyObject*\npy_\1(void)\n{',
      ...        'def myfunc():')
      'static PyObject*\npy_myfunc(void)\n{'

   Se *repl* for uma função, ela será chamada para cada ocorrência não
   sobreposta do padrão *pattern*. A função recebe um único argumento
   objeto correspondência e retorna a string de substituição. Por
   exemplo:

      >>> def dashrepl(matchobj):
      ...     if matchobj.group(0) == '-': return ' '
      ...     else: return '-'
      >>> re.sub('-{1,2}', dashrepl, 'pro----gram-files')
      'pro--gram files'
      >>> re.sub(r'\sAND\s', ' & ', 'Baked Beans And Spam', flags=re.IGNORECASE)
      'Baked Beans & Spam'

   O padrão pode ser uma string ou um objeto de padrão.

   O argumento opcional *count* é o número máximo de ocorrências de
   padrão a serem substituídas; *count* deve ser um número inteiro não
   negativo. Se omitido ou zero, todas as ocorrências serão
   substituídas. As correspondências vazias para o padrão são
   substituídas apenas quando não adjacentes a uma correspondência
   vazia anterior, então "sub('x*', '-', 'abxd')" retorna "'-a-b--
   d-'".

   Em argumentos *repl* do tipo string, além dos escapes de caractere
   e referências anteriores descritas acima, "\g<nome>" usará a
   substring correspondida pelo grupo denominado "nome", conforme
   definido pela sintaxe "(?P<nome>...)". "\g<número>" usa o número do
   grupo correspondente; "\g<2>" é portanto equivalente a "\2", mas
   não é ambíguo em uma substituição como "\g<2>0". "\20" seria
   interpretado como uma referência ao grupo 20, não uma referência ao
   grupo 2 seguida pelo caractere literal "'0'". A referência anterior
   "\g6" substitui em toda a substring correspondida pela ER.

   Alterado na versão 3.1: Adicionado o argumento de sinalizadores
   opcionais.

   Alterado na versão 3.5: Grupos sem correspondência são substituídos
   por uma string vazia.

   Alterado na versão 3.6: Escapes desconhecidos no padrão *pattern*
   consistindo em "'\'" e uma letra ASCII agora são erros.

   Alterado na versão 3.7: Escapes desconhecidos no padrão *repl*
   consistindo em "'\'" e uma letra ASCII agora são erros.

   Alterado na versão 3.7: As correspondências vazias para o padrão
   sãosubstituídos quando não adjacente a uma correspondência não
   vazia anterior.

re.subn(pattern, repl, string, count=0, flags=0)

   Executa a mesma operação que "sub()", mas retorna uma tupla
   "(nova_string, número_de_substituições_feitas)".

   Alterado na versão 3.1: Adicionado o argumento de sinalizadores
   opcionais.

   Alterado na versão 3.5: Grupos sem correspondência são substituídos
   por uma string vazia.

re.escape(pattern)

   Escapa caracteres especiais no padrão *pattern*. Isso é útil se
   você deseja corresponder uma string literal arbitrária que pode
   conter metacaracteres de expressão regular. Por exemplo:

      >>> print(re.escape('http://www.python.org'))
      http://www\.python\.org

      >>> legal_chars = string.ascii_lowercase + string.digits + "!#$%&'*+-.^_`|~:"
      >>> print('[%s]+' % re.escape(legal_chars))
      [abcdefghijklmnopqrstuvwxyz0123456789!\#\$%\&'\*\+\-\.\^_`\|\~:]+

      >>> operators = ['+', '-', '*', '/', '**']
      >>> print('|'.join(map(re.escape, sorted(operators, reverse=True))))
      /|\-|\+|\*\*|\*

   Esta função não deve ser usada para a string de substituição em
   "sub()" e "subn()", apenas contrabarras devem ser escapadas. Por
   exemplo:

      >>> digits_re = r'\d+'
      >>> sample = '/usr/sbin/sendmail - 0 errors, 12 warnings'
      >>> print(re.sub(digits_re, digits_re.replace('\\', r'\\'), sample))
      /usr/sbin/sendmail - \d+ errors, \d+ warnings

   Alterado na versão 3.3: O caractere "'_'" não é mais escapado.

   Alterado na versão 3.7: Somente caracteres que podem ter um
   significado especial em uma expressão regular são escapados. Como
   resultado, "'!'", "'"'", "'%'", ""'"", "','", "'/'", "':'", "';'",
   "'<'", "'='", "'>'", "'@'", e ""`"" não são mais escapados.

re.purge()

   Limpa o cache da expressão regular.

exception re.error(msg, pattern=None, pos=None)

   Exceção levantada quando uma string passada para uma das funções
   aqui não é uma expressão regular válida (por exemplo, pode conter
   parênteses não correspondentes) ou quando algum outro erro ocorre
   durante a compilação ou correspondência. Nunca é um erro se uma
   string não contém nenhuma correspondência para um padrão. A
   instância de erro tem os seguintes atributos adicionais:

   msg

      A mensagem de erro não formatada.

   pattern

      O padrão da expressão regular.

   pos

      O índice no padrão *pattern* no qual a compilação falhou (pode
      ser "None").

   lineno

      A linha correspondente a *pos* (pode ser "None").

   colno

      A coluna correspondente a *pos* (pode ser "None").

   Alterado na versão 3.5: Adicionados os atributos adicionais.


Objetos expressão regular
=========================

Objetos expressão regular compilados oferecem suporte aos seguintes
métodos e atributos:

Pattern.search(string[, pos[, endpos]])

   Percorre a *string* procurando o primeiro local onde esta expressão
   regular produz uma correspondência e retorna um objeto
   correspondência encontrado. Retorna "None" se nenhuma posição na
   string corresponder ao padrão; observe que isso é diferente de
   encontrar uma correspondência de comprimento zero em algum ponto da
   string.

   O segundo parâmetro opcional *pos* fornece um índice na string onde
   a pesquisa deve começar; o padrão é "0". Isso não é totalmente
   equivalente a fatiar a string; o caractere padrão "'^'" corresponde
   no início real da string e nas posições logo após uma nova linha,
   mas não necessariamente no índice onde a pesquisa deve começar.

   O parâmetro opcional *endpos* limita o quão longe a string será
   pesquisada; será como se a string tivesse *endpos* caracteres,
   então apenas os caracteres de *pos* a "endpos - 1" serão procurados
   por uma correspondência. Se *endpos* for menor que *pos*, nenhuma
   correspondência será encontrada; caso contrário, se *rx* é um
   objeto de expressão regular compilado, "rx.search(string, 0, 50)" é
   equivalente a "rx.search(string[:50], 0)".

      >>> pattern = re.compile("d")
      >>> pattern.search("dog")     # Match at index 0
      <re.Match object; span=(0, 1), match='d'>
      >>> pattern.search("dog", 1)  # No match; search doesn't include the "d"

Pattern.match(string[, pos[, endpos]])

   Se zero ou mais caracteres no *início* da *string* corresponderem a
   esta expressão regular, retorna um objeto correspondência
   encontrado. Retorna "None" se a string não corresponder ao padrão;
   observe que isso é diferente de uma correspondência de comprimento
   zero.

   Os parâmetros opcionais *pos* e *endpos* têm o mesmo significado
   que para o método "search()".

      >>> pattern = re.compile("o")
      >>> pattern.match("dog")      # No match as "o" is not at the start of "dog".
      >>> pattern.match("dog", 1)   # Match as "o" is the 2nd character of "dog".
      <re.Match object; span=(1, 2), match='o'>

   Se você quiser localizar uma correspondência em qualquer lugar em
   *string*, use "search()" ao invés (veja também search() vs.
   match()).

Pattern.fullmatch(string[, pos[, endpos]])

   Se toda a *string* corresponder a esta expressão regular, retorna
   um objeto correspondência encontrado. Retorna "None" se a string
   não corresponder ao padrão; observe que isso é diferente de uma
   correspondência de comprimento zero.

   Os parâmetros opcionais *pos* e *endpos* têm o mesmo significado
   que para o método "search()".

      >>> pattern = re.compile("o[gh]")
      >>> pattern.fullmatch("dog")      # No match as "o" is not at the start of "dog".
      >>> pattern.fullmatch("ogre")     # No match as not the full string matches.
      >>> pattern.fullmatch("doggie", 1, 3)   # Matches within given limits.
      <re.Match object; span=(1, 3), match='og'>

   Novo na versão 3.4.

Pattern.split(string, maxsplit=0)

   Idêntico à função "split()", usando o padrão compilado.

Pattern.findall(string[, pos[, endpos]])

   Semelhante à função "findall()", usando o padrão compilado, mas
   também aceita os parâmetros *pos* e *endpos* opcionais que limitam
   a região de pesquisa como para "search()".

Pattern.finditer(string[, pos[, endpos]])

   Semelhante à função "finditer()", usando o padrão compilado, mas
   também aceita os parâmetros *pos* e *endpos* opcionais que limitam
   a região de pesquisa como para "search()".

Pattern.sub(repl, string, count=0)

   Idêntico à função "sub()", usando o padrão compilado.

Pattern.subn(repl, string, count=0)

   Idêntico à função "subn()", usando o padrão compilado.

Pattern.flags

   Os sinalizadores de correspondência de regex. Esta é uma combinação
   dos sinalizadores fornecidos para "compile()", qualquer sinalizador
   em linha "(?...)" no padrão e sinalizadores implícitos como
   "UNICODE" se o padrão for uma string Unicode.

Pattern.groups

   O número de grupos de captura no padrão.

Pattern.groupindex

   Um dicionário que mapeia qualquer nome de grupo simbólico definido
   por "(?P<id>)" para números de grupo. O dicionário estará vazio se
   nenhum grupo simbólico for usado no padrão.

Pattern.pattern

   A string de padrão da qual o objeto de padrão foi compilado.

Alterado na versão 3.7: Adicionado suporte de "copy.copy()" e
"copy.deepcopy()". Os objetos expressão regular compilados são
considerados atômicos.


Objetos correspondência
=======================

Objetos correspondência sempre têm um valor booleano de "True". Como
"match()" e "search()" retornam "None" quando não há correspondência,
você pode testar se houve uma correspondência com uma simples
instrução "if":

   match = re.search(pattern, string)
   if match:
       process(match)

Os objetos correspondência oferecem suporte aos seguintes métodos e
atributos:

Match.expand(template)

   Retorna a string obtida fazendo a substituição da contrabarra na
   string modelo *template*, como feito pelo método "sub()". Escapes
   como "\n" são convertidos para os caracteres apropriados, e
   referências anteriores numéricas ("\1", "\2") e referências
   anteriores nomeadas ("\g<1>", "\g<nome>") são substituídas pelo
   conteúdo do grupo correspondente.

   Alterado na versão 3.5: Grupos sem correspondência são substituídos
   por uma string vazia.

Match.group([group1, ...])

   Retorna um ou mais subgrupos da correspondência. Se houver um único
   argumento, o resultado será uma única string; se houver vários
   argumentos, o resultado é uma tupla com um item por argumento. Sem
   argumentos, *group1* padroniza para zero (toda a correspondência é
   retornada). Se um argumento *groupN* for zero, o valor de retorno
   correspondente será toda a string correspondente; se estiver no
   intervalo inclusivo [1..99], é a string que corresponde ao grupo
   entre parênteses correspondente. Se um número de grupo for negativo
   ou maior do que o número de grupos definidos no padrão, uma exceção
   "IndexError" é levantada. Se um grupo estiver contido em uma parte
   do padrão que não correspondeu, o resultado correspondente será
   "None". Se um grupo estiver contido em uma parte do padrão que
   correspondeu várias vezes, a última correspondência será retornada.

      >>> m = re.match(r"(\w+) (\w+)", "Isaac Newton, physicist")
      >>> m.group(0)       # The entire match
      'Isaac Newton'
      >>> m.group(1)       # The first parenthesized subgroup.
      'Isaac'
      >>> m.group(2)       # The second parenthesized subgroup.
      'Newton'
      >>> m.group(1, 2)    # Multiple arguments give us a tuple.
      ('Isaac', 'Newton')

   Se a expressão regular usa a sintaxe "(?P<nome>...)", os argumentos
   *groupN* também podem ser strings que identificam grupos por seus
   nomes de grupo. Se um argumento string não for usado como um nome
   de grupo no padrão, uma exceção "IndexError" é levantada.

   Um exemplo moderadamente complicado:

      >>> m = re.match(r"(?P<first_name>\w+) (?P<last_name>\w+)", "Malcolm Reynolds")
      >>> m.group('first_name')
      'Malcolm'
      >>> m.group('last_name')
      'Reynolds'

   Grupos nomeados também podem ser referidos por seu índice:

      >>> m.group(1)
      'Malcolm'
      >>> m.group(2)
      'Reynolds'

   Se um grupo corresponder várias vezes, apenas a última
   correspondência estará acessível:

      >>> m = re.match(r"(..)+", "a1b2c3")  # Matches 3 times.
      >>> m.group(1)                        # Returns only the last match.
      'c3'

Match.__getitem__(g)

   Isso é idêntico a "m.group(g)". Isso permite acesso mais fácil a um
   grupo individual de uma correspondência:

      >>> m = re.match(r"(\w+) (\w+)", "Isaac Newton, physicist")
      >>> m[0]       # The entire match
      'Isaac Newton'
      >>> m[1]       # The first parenthesized subgroup.
      'Isaac'
      >>> m[2]       # The second parenthesized subgroup.
      'Newton'

   Novo na versão 3.6.

Match.groups(default=None)

   Retorna uma tupla contendo todos os subgrupos da correspondência,
   de 1 até quantos grupos estiverem no padrão. O argumento *default*
   é usado para grupos que não participaram da correspondência; o
   padrão é "None".

   Por exemplo:

      >>> m = re.match(r"(\d+)\.(\d+)", "24.1632")
      >>> m.groups()
      ('24', '1632')

   Se colocarmos a casa decimal e tudo depois dela opcional, nem todos
   os grupos podem participar da correspondência. Esses grupos serão
   padronizados como "None", a menos que o argumento *default* seja
   fornecido:

      >>> m = re.match(r"(\d+)\.?(\d+)?", "24")
      >>> m.groups()      # Second group defaults to None.
      ('24', None)
      >>> m.groups('0')   # Now, the second group defaults to '0'.
      ('24', '0')

Match.groupdict(default=None)

   Retorna um dicionário contendo todos os subgrupos *nomeados* da
   correspondência, tendo como chave o nome do subgrupo. O argumento
   *default* usado para grupos que não participaram da
   correspondência; o padrão é "None". Por exemplo:

      >>> m = re.match(r"(?P<first_name>\w+) (?P<last_name>\w+)", "Malcolm Reynolds")
      >>> m.groupdict()
      {'first_name': 'Malcolm', 'last_name': 'Reynolds'}

Match.start([group])
Match.end([group])

   Retorna os índices de início e fim da substring correspondida pelo
   grupo *group*; *group* tem como padrão  zero (o que significa que
   toda a substring é correspondida). Retorna "-1" se *group* existe,
   mas não contribuiu para a correspondência. Para um objeto
   correspondência *m* e um grupo *g* que contribuiu para a
   correspondência, a substring correspondida pelo grupo *g*
   (equivalente a "m.group(g)") é

      m.string[m.start(g):m.end(g)]

   Observe que "m.start(group)" será igual a "m.end(group)" se *group*
   correspondeu a uma string nula. Por exemplo, após "m =
   re.search('b(c?)', 'cba')", "m.start(0)" é 1, "m.end(0)" é 2,
   "m.start(1)" e "m.end(1)" são 2, e "m.start(2)" levanta uma exceção
   "IndexError".

   Um exemplo que removerá *remova_isto* dos endereços de e-mail:

      >>> email = "tony@tiremove_thisger.net"
      >>> m = re.search("remove_this", email)
      >>> email[:m.start()] + email[m.end():]
      'tony@tiger.net'

Match.span([group])

   Para uma correspondência *m*, retorna a tupla com dois elementos
   "(m.start(group), m.end(group))". Observe que se *group* não
   contribuiu para a correspondência, isso é "(-1, -1)". *group* tem
   como padrão zero, a correspondência inteira.

Match.pos

   O valor de *pos* que foi passado para o método "search()" ou
   "match()" de um objeto expressão regular. Este é o índice da string
   na qual o mecanismo de ER começou a procurar uma correspondência.

Match.endpos

   O valor de *endpos* que foi passado para o método "search()" ou
   "match()" de um objeto expressão regular. Este é o índice da string
   após o qual o mecanismo de ER não vai chegar.

Match.lastindex

   O índice em número inteiro do último grupo de captura
   correspondido, ou "None" se nenhum grupo foi correspondido. Por
   exemplo, as expressões "(a)b", "((a)(b))" e "((ab))" terão
   "lastindex == 1" se aplicadas à string "'ab'", enquanto a expressão
   "(a)(b)" terá "lastindex == 2", se aplicada à mesma string.

Match.lastgroup

   O nome do último grupo de captura correspondido, ou "None" se o
   grupo não tinha um nome, ou se nenhum grupo foi correspondido.

Match.re

   O objeto expressão regular cujo método "match()" ou "search()"
   produziu esta instância de correspondência.

Match.string

   A string passada para "match()" ou "search()".

Alterado na versão 3.7: Adicionado suporte para "copy.copy()" e
"copy.deepcopy()". Objetos correspondência são considerados atômicos.


Exemplos de expressão regular
=============================


Verificando por um par
----------------------

Neste exemplo, usaremos a seguinte função auxiliar para exibir objetos
correspondência com um pouco mais de elegância:

   def displaymatch(match):
       if match is None:
           return None
       return '<Match: %r, groups=%r>' % (match.group(), match.groups())

Suponha que você esteja escrevendo um programa de pôquer onde a mão de
um jogador é representada como uma string de 5 caracteres com cada
caractere representando uma carta, "a" para ás, "k" para rei, "q" para
dama, "j" para valete, "t" para 10 e "2" a "9" representando a carta
com esse valor.

Para ver se uma determinada string é uma mão válida, pode-se fazer o
seguinte:

   >>> valid = re.compile(r"^[a2-9tjqk]{5}$")
   >>> displaymatch(valid.match("akt5q"))  # Valid.
   "<Match: 'akt5q', groups=()>"
   >>> displaymatch(valid.match("akt5e"))  # Invalid.
   >>> displaymatch(valid.match("akt"))    # Invalid.
   >>> displaymatch(valid.match("727ak"))  # Valid.
   "<Match: '727ak', groups=()>"

Essa última mão, ""727ak"", continha um par, ou duas cartas com o
mesmo valor. Para combinar isso com uma expressão regular, pode-se
usar referências anteriores como:

   >>> pair = re.compile(r".*(.).*\1")
   >>> displaymatch(pair.match("717ak"))     # Pair of 7s.
   "<Match: '717', groups=('7',)>"
   >>> displaymatch(pair.match("718ak"))     # No pairs.
   >>> displaymatch(pair.match("354aa"))     # Pair of aces.
   "<Match: '354aa', groups=('a',)>"

Para descobrir em que carta o par consiste, pode-se usar o método
"group()" do objeto correspondência da seguinte maneira:

   >>> pair = re.compile(r".*(.).*\1")
   >>> pair.match("717ak").group(1)
   '7'

   # Error because re.match() returns None, which doesn't have a group() method:
   >>> pair.match("718ak").group(1)
   Traceback (most recent call last):
     File "<pyshell#23>", line 1, in <module>
       re.match(r".*(.).*\1", "718ak").group(1)
   AttributeError: 'NoneType' object has no attribute 'group'

   >>> pair.match("354aa").group(1)
   'a'


Simulando scanf()
-----------------

Python atualmente não possui um equivalente a "scanf()". Expressões
regulares são geralmente mais poderosas, embora também mais
detalhadas, do que strings de formato "scanf()". A tabela abaixo
oferece alguns mapeamentos mais ou menos equivalentes entre os tokens
de formato "scanf()" e expressões regulares.

+----------------------------------+-----------------------------------------------+
| Token "scanf()"                  | Expressão regular                             |
|==================================|===============================================|
| "%c"                             | "."                                           |
+----------------------------------+-----------------------------------------------+
| "%5c"                            | ".{5}"                                        |
+----------------------------------+-----------------------------------------------+
| "%d"                             | "[-+]?\d+"                                    |
+----------------------------------+-----------------------------------------------+
| "%e", "%E", "%f", "%g"           | "[-+]?(\d+(\.\d*)?|\.\d+)([eE][-+]?\d+)?"     |
+----------------------------------+-----------------------------------------------+
| "%i"                             | "[-+]?(0[xX][\dA-Fa-f]+|0[0-7]*|\d+)"         |
+----------------------------------+-----------------------------------------------+
| "%o"                             | "[-+]?[0-7]+"                                 |
+----------------------------------+-----------------------------------------------+
| "%s"                             | "\S+"                                         |
+----------------------------------+-----------------------------------------------+
| "%u"                             | "\d+"                                         |
+----------------------------------+-----------------------------------------------+
| "%x", "%X"                       | "[-+]?(0[xX])?[\dA-Fa-f]+"                    |
+----------------------------------+-----------------------------------------------+

Para extrair um nome de arquivo e números de uma string como

   /usr/sbin/sendmail - 0 errors, 4 warnings

você usaria um formato de "scanf()" como

   %s - %d errors, %d warnings

A expressão regular equivalente seria

   (\S+) - (\d+) errors, (\d+) warnings


search() vs. match()
--------------------

Python oferece duas operações primitivas diferentes baseadas em
expressões regulares: "re.match()" verifica se há uma correspondência
apenas no início da string, enquanto "re.search()" verifica se há uma
correspondência em qualquer lugar da string (isto é o que o Perl faz
por padrão).

Por exemplo:

   >>> re.match("c", "abcdef")    # No match
   >>> re.search("c", "abcdef")   # Match
   <re.Match object; span=(2, 3), match='c'>

Expressões regulares começando com "'^'" podem ser usadas com
"search()" para restringir a correspondência no início da string:

   >>> re.match("c", "abcdef")    # No match
   >>> re.search("^c", "abcdef")  # No match
   >>> re.search("^a", "abcdef")  # Match
   <re.Match object; span=(0, 1), match='a'>

Observe, entretanto, que no modo "MULTILINE" "match()" apenas
corresponde ao início da string, enquanto que usar "search()" com uma
expressão regular começando com "'^'" irá corresponder no início de
cada linha.

   >>> re.match('X', 'A\nB\nX', re.MULTILINE)  # No match
   >>> re.search('^X', 'A\nB\nX', re.MULTILINE)  # Match
   <re.Match object; span=(4, 5), match='X'>


Criando uma lista telefônica
----------------------------

"split()" divide uma string em uma lista delimitada pelo padrão
passado. O método é inestimável para converter dados textuais em
estruturas de dados que podem ser facilmente lidas e modificadas pelo
Python, conforme demonstrado no exemplo a seguir que cria uma lista
telefônica.

Primeiro, aqui está a entrada. Normalmente pode vir de um arquivo,
aqui estamos usando a sintaxe de string entre aspas triplas.

   >>> text = """Ross McFluff: 834.345.1254 155 Elm Street
   ...
   ... Ronald Heathmore: 892.345.3428 436 Finley Avenue
   ... Frank Burger: 925.541.7625 662 South Dogwood Way
   ...
   ...
   ... Heather Albrecht: 548.326.4584 919 Park Place"""

Os registros são separados por uma ou mais novas linhas. Agora,
convertemos a string em uma lista com cada linha não vazia tendo seu
próprio registro :

   >>> entries = re.split("\n+", text)
   >>> entries
   ['Ross McFluff: 834.345.1254 155 Elm Street',
   'Ronald Heathmore: 892.345.3428 436 Finley Avenue',
   'Frank Burger: 925.541.7625 662 South Dogwood Way',
   'Heather Albrecht: 548.326.4584 919 Park Place']

Finalmente, divida cada registro em uma lista com nome, sobrenome,
número de telefone e endereço. Usamos o parâmetro "maxsplit" de
"split()" porque o endereço contém espaços, nosso padrão de divisão:

   >>> [re.split(":? ", entry, 3) for entry in entries]
   [['Ross', 'McFluff', '834.345.1254', '155 Elm Street'],
   ['Ronald', 'Heathmore', '892.345.3428', '436 Finley Avenue'],
   ['Frank', 'Burger', '925.541.7625', '662 South Dogwood Way'],
   ['Heather', 'Albrecht', '548.326.4584', '919 Park Place']]

O padrão ":?" corresponde ao caractere de dois pontos após o
sobrenome, de modo que não ocorre na lista de resultados. Com um
"maxsplit" de "4", podemos separar o número da casa do nome da rua:

   >>> [re.split(":? ", entry, 4) for entry in entries]
   [['Ross', 'McFluff', '834.345.1254', '155', 'Elm Street'],
   ['Ronald', 'Heathmore', '892.345.3428', '436', 'Finley Avenue'],
   ['Frank', 'Burger', '925.541.7625', '662', 'South Dogwood Way'],
   ['Heather', 'Albrecht', '548.326.4584', '919', 'Park Place']]


Mastigando texto
----------------

"sub()" substitui cada ocorrência de um padrão por uma string ou o
resultado de uma função. Este exemplo demonstra o uso de "sub()" com
uma função para "mastigar" o texto ou aleatorizar a ordem de todos os
caracteres em cada palavra de uma frase, exceto o primeiro e o último
caracteres:

   >>> def repl(m):
   ...     inner_word = list(m.group(2))
   ...     random.shuffle(inner_word)
   ...     return m.group(1) + "".join(inner_word) + m.group(3)
   >>> text = "Professor Abdolmalek, please report your absences promptly."
   >>> re.sub(r"(\w)(\w+)(\w)", repl, text)
   'Poefsrosr Aealmlobdk, pslaee reorpt your abnseces plmrptoy.'
   >>> re.sub(r"(\w)(\w+)(\w)", repl, text)
   'Pofsroser Aodlambelk, plasee reoprt yuor asnebces potlmrpy.'


Encontrando todos os advérbios
------------------------------

"findall()" corresponde a *todas* as ocorrências de um padrão, não
apenas a primeira como "search()" faz. Por exemplo, se um escritor
deseja encontrar todos os advérbios em algum texto, ele pode usar
"findall()" da seguinte maneira:

   >>> text = "He was carefully disguised but captured quickly by police."
   >>> re.findall(r"\w+ly", text)
   ['carefully', 'quickly']


Encontrando todos os advérbios e suas posições
----------------------------------------------

Caso seja desejado obter mais informações sobre todas as
correspondências de um padrão do que o texto correspondido,
"finditer()" é útil, pois fornece objetos correspondência em vez de
strings. Continuando com o exemplo anterior, se um escritor quisesse
encontrar todos os advérbios *e suas posições* em algum texto, ele
usaria "finditer()" da seguinte maneira:

   >>> text = "He was carefully disguised but captured quickly by police."
   >>> for m in re.finditer(r"\w+ly", text):
   ...     print('%02d-%02d: %s' % (m.start(), m.end(), m.group(0)))
   07-16: carefully
   40-47: quickly


Notação de string bruta
-----------------------

A notação de string bruta ("r"texto"") mantém as expressões regulares
sãs. Sem ela, cada contrabarra ("'\'") em uma expressão regular teria
que ser prefixada com outra para ter seu efeito de caractere especial
anulado. Por exemplo, as duas linhas de código a seguir são
funcionalmente idênticas:

   >>> re.match(r"\W(.)\1\W", " ff ")
   <re.Match object; span=(0, 4), match=' ff '>
   >>> re.match("\\W(.)\\1\\W", " ff ")
   <re.Match object; span=(0, 4), match=' ff '>

Quando se deseja corresponder a uma contrabarra literal, ela deve ser
prefixada com outra contrabarra na expressão regular. Com a notação de
string bruta, isso significa "r"\\"". Sem a notação de string bruta,
deve-se usar ""\\\\"", tornando as seguintes linhas de código
funcionalmente idênticas:

   >>> re.match(r"\\", r"\\")
   <re.Match object; span=(0, 1), match='\\'>
   >>> re.match("\\\\", r"\\")
   <re.Match object; span=(0, 1), match='\\'>


Escrevendo um analisador léxico
-------------------------------

Um analisador léxico ou scanner analisa uma string para categorizar
grupos de caracteres. Este é um primeiro passo útil para escrever um
compilador ou interpretador.

As categorias de texto são especificadas com expressões regulares. A
técnica é combiná-las em uma única expressão regular mestre e fazer um
laço em correspondências sucessivas:

   from typing import NamedTuple
   import re

   class Token(NamedTuple):
       type: str
       value: str
       line: int
       column: int

   def tokenize(code):
       keywords = {'IF', 'THEN', 'ENDIF', 'FOR', 'NEXT', 'GOSUB', 'RETURN'}
       token_specification = [
           ('NUMBER',   r'\d+(\.\d*)?'),  # Integer or decimal number
           ('ASSIGN',   r':='),           # Assignment operator
           ('END',      r';'),            # Statement terminator
           ('ID',       r'[A-Za-z]+'),    # Identifiers
           ('OP',       r'[+\-*/]'),      # Arithmetic operators
           ('NEWLINE',  r'\n'),           # Line endings
           ('SKIP',     r'[ \t]+'),       # Skip over spaces and tabs
           ('MISMATCH', r'.'),            # Any other character
       ]
       tok_regex = '|'.join('(?P<%s>%s)' % pair for pair in token_specification)
       line_num = 1
       line_start = 0
       for mo in re.finditer(tok_regex, code):
           kind = mo.lastgroup
           value = mo.group()
           column = mo.start() - line_start
           if kind == 'NUMBER':
               value = float(value) if '.' in value else int(value)
           elif kind == 'ID' and value in keywords:
               kind = value
           elif kind == 'NEWLINE':
               line_start = mo.end()
               line_num += 1
               continue
           elif kind == 'SKIP':
               continue
           elif kind == 'MISMATCH':
               raise RuntimeError(f'{value!r} unexpected on line {line_num}')
           yield Token(kind, value, line_num, column)

   statements = '''
       IF quantity THEN
           total := total + price * quantity;
           tax := price * 0.05;
       ENDIF;
   '''

   for token in tokenize(statements):
       print(token)

O analisador léxico produz a seguinte saída:

   Token(type='IF', value='IF', line=2, column=4)
   Token(type='ID', value='quantity', line=2, column=7)
   Token(type='THEN', value='THEN', line=2, column=16)
   Token(type='ID', value='total', line=3, column=8)
   Token(type='ASSIGN', value=':=', line=3, column=14)
   Token(type='ID', value='total', line=3, column=17)
   Token(type='OP', value='+', line=3, column=23)
   Token(type='ID', value='price', line=3, column=25)
   Token(type='OP', value='*', line=3, column=31)
   Token(type='ID', value='quantity', line=3, column=33)
   Token(type='END', value=';', line=3, column=41)
   Token(type='ID', value='tax', line=4, column=8)
   Token(type='ASSIGN', value=':=', line=4, column=12)
   Token(type='ID', value='price', line=4, column=15)
   Token(type='OP', value='*', line=4, column=21)
   Token(type='NUMBER', value=0.05, line=4, column=23)
   Token(type='END', value=';', line=4, column=27)
   Token(type='ENDIF', value='ENDIF', line=5, column=4)
   Token(type='END', value=';', line=5, column=9)

[Frie09] Friedl, Jeffrey. Mastering Regular Expressions. 3ª ed.,
         O'Reilly Media, 2009. A terceira edição do livro não cobre
         mais o Python, mas a primeira edição cobriu a escrita de bons
         padrões de expressão regular em grandes detalhes.
