Este módulo define uma interface padrão para quebrar strings de Uniform Resource Locator (URL) em componentes (esquema de endereçamento, local de rede, caminho etc.), para combinar os componentes de volta em uma string de URL e para converter uma “URL relativo” em uma URL absoluta dado uma “URL base”.
O módulo foi projetado para corresponder ao RFC da internet sobre Localizadores de Recursos Uniformes Relativos, ou URL relativa. Ele tem suporte aos seguintes esquemas de URL: file, ftp, gopher, hdl, http, https, imap, itms-services, mailto, mms, news, nntp, prospero, rsync, rtsp, rtsps,``rtspu``, sftp, shttp, sip, sips, snews, svn, svn+ssh, telnet, wais, ws, wss.
A inclusão do esquema de URL itms-services pode impedir que uma aplicação passe pelo processo de revisão da App Store da Apple para as App Stores do macOS e iOS. O tratamento do esquema itms-services é sempre removido no iOS; no macOS, ele pode ser removido se o CPython tiver sido criado com a opção --with-app-store-compliance.
O módulo urllib.parse define funções que se enquadram em duas grandes categorias: análise de URL e colocação de aspas na URL. Eles são abordados em detalhes nas seções a seguir.
As funções deste módulo usam o termo descontinuado netloc (ou net_loc), que foi introduzido no RFC 1808. No entanto, este termo foi descontinuado pelo RFC 3986, que introduziu o termo authority como seu substituto. O uso de netloc continua para compatibilidade com versões anteriores.
As funções de análise de URL se concentram na divisão de uma string de URL em seus componentes ou na combinação de componentes de URL em uma string de URL.
Parse a URL into six components, returning a 6-item named tuple. This
corresponds to the general structure of a URL:
scheme://netloc/path;parameters?query#fragment.
Each tuple item is a string, possibly empty, or None if
missing_as_none is true.
Not defined component are represented an empty string (by default) or
None if missing_as_none is true.
The components are not broken up
into smaller parts (for example, the network location is a single string), and %
escapes are not expanded. The delimiters as shown above are not part of the
result, except for a leading slash in the path component, which is retained if
present. For example:
Seguindo as especificações de sintaxe em RFC 1808, o urlparse reconhece um netloc apenas se for introduzido apropriadamente por ‘//’. Caso contrário, presume-se que a entrada seja uma URL relativa e, portanto, comece com um componente de caminho.
The scheme argument gives the default addressing scheme, to be
used only if the URL does not specify one. It should be the same type
(text or bytes) as urlstring or None, except that the '' is
always allowed, and is automatically converted to b'' if appropriate.
If the allow_fragments argument is false, fragment identifiers are not
recognized. Instead, they are parsed as part of the path, parameters
or query component, and fragment is set to None or the empty
string (depending on the value of missing_as_none) in the return value.
O valor de retorno é uma tupla nomeada, o que significa que seus itens podem ser acessados por índice ou como atributos nomeados, que são:
Ler o atributo port irá levantar uma ValueError se uma porta inválida for especificada no URL. Veja a seção Structured Parse Results para mais informações sobre o objeto de resultado.
Colchetes sem correspondência no atributo netloc levantará uma ValueError.
Caracteres no atributo netloc que se decompõem sob a normalização NFKC (como usado pela codificação IDNA) em qualquer um dos /, ?, #, @ ou : vai levantar uma ValueError. Se a URL for decomposta antes da análise, nenhum erro será levantado.
Como é o caso com todas as tuplas nomeadas, a subclasse tem alguns métodos e atributos adicionais que são particularmente úteis. Um desses métodos é _replace(). O método _replace() retornará um novo objeto ParseResult substituindo os campos especificados por novos valores.
Alterado na versão 3.2: Adicionados recursos de análise de URL IPv6.
Alterado na versão 3.3: O fragmento agora é analisado para todos os esquemas de URL (a menos que allow_fragments seja falso), de acordo com a RFC 3986. Anteriormente, existia uma lista de permitidos de esquemas que suportam fragmentos.
Alterado na versão 3.6: Out-of-range port numbers now raise ValueError, instead of
returning None.
Alterado na versão 3.8: Os caracteres que afetam a análise de netloc sob normalização NFKC agora levantarão ValueError.
Alterado na versão 3.15.0a5 (unreleased): Added the missing_as_none parameter.
Analisa uma string de consulta fornecida como um argumento de string (dados do tipo application/x-www-form-urlencoded). Os dados são retornados como um dicionário. As chaves de dicionário são os nomes de variáveis de consulta exclusivos e os valores são listas de valores para cada nome.
O argumento opcional keep_blank_values é um sinalizador que indica se os valores em branco em consultas codificadas por porcentagem devem ser tratados como strings em branco. Um valor verdadeiro indica que os espaços em branco devem ser mantidos como strings em branco. O valor falso padrão indica que os valores em branco devem ser ignorados e tratados como se não tivessem sido incluídos.
O argumento opcional strict_parsing é um sinalizador que indica o que fazer com os erros de análise. Se falso (padrão), os erros são ignorados silenciosamente. Se verdadeiro, os erros levantam uma exceção ValueError.
Os parâmetros opcionais encoding e errors especificam como decodificar sequências codificadas em porcentagem em caracteres Unicode, conforme aceito pelo método bytes.decode().
O argumento opcional max_num_fields é o número máximo de campos a serem lidos. Se definido, então levanta um ValueError se houver mais de max_num_fields campos lidos.
O argumento opcional separador é o símbolo a ser usado para separar os argumentos da consulta. O padrão é &.
Use a função urllib.parse.urlencode() (com o parâmetro doseq definido como True) para converter esses dicionários em strings de consulta.
Alterado na versão 3.2: Adicionado os parâmetros encoding e errors.
Alterado na versão 3.8: Adicionado o parâmetro max_num_fields.
Alterado na versão 3.10: Adicionado parâmetro separator com o valor padrão de &. Versões do Python anteriores ao Python 3.10 permitiam o uso de ; e & como separador de parâmetro de consulta. Isso foi alterado para permitir apenas uma única chave separadora, com & como o separador padrão.
Descontinuado desde a versão 3.14: Accepting objects with false values (like 0 and []) except empty
strings and byte-like objects and None is now deprecated.
Analisa uma string de consulta fornecida como um argumento de string (dados do tipo application/x-www-form-urlencoded). Os dados são retornados como uma lista de pares de nome e valor.
O argumento opcional keep_blank_values é um sinalizador que indica se os valores em branco em consultas codificadas por porcentagem devem ser tratados como strings em branco. Um valor verdadeiro indica que os espaços em branco devem ser mantidos como strings em branco. O valor falso padrão indica que os valores em branco devem ser ignorados e tratados como se não tivessem sido incluídos.
O argumento opcional strict_parsing é um sinalizador que indica o que fazer com os erros de análise. Se falso (padrão), os erros são ignorados silenciosamente. Se verdadeiro, os erros levantam uma exceção ValueError.
Os parâmetros opcionais encoding e errors especificam como decodificar sequências codificadas em porcentagem em caracteres Unicode, conforme aceito pelo método bytes.decode().
O argumento opcional max_num_fields é o número máximo de campos a serem lidos. Se definido, então levanta um ValueError se houver mais de max_num_fields campos lidos.
O argumento opcional separador é o símbolo a ser usado para separar os argumentos da consulta. O padrão é &.
Alterado na versão 3.2: Adicionado os parâmetros encoding e errors.
Alterado na versão 3.8: Adicionado o parâmetro max_num_fields.
Alterado na versão 3.10: Adicionado parâmetro separator com o valor padrão de &. Versões do Python anteriores ao Python 3.10 permitiam o uso de ; e & como separador de parâmetro de consulta. Isso foi alterado para permitir apenas uma única chave separadora, com & como o separador padrão.
Construct a URL from a tuple as returned by urlparse(). The parts
argument can be any six-item iterable.
This may result in a slightly different, but equivalent URL, if the
URL that was parsed originally had unnecessary delimiters (for example,
a ? with an empty query; the RFC states that these are equivalent).
If keep_empty is true, empty strings are kept in the result (for example,
a ? for an empty query), only None components are omitted.
This allows rebuilding a URL that was parsed with option
missing_as_none=True.
By default, keep_empty is true if parts is the result of the
urlparse() call with missing_as_none=True.
Alterado na versão 3.15.0a5 (unreleased): Added the keep_empty parameter.
Isto é similar a urlparse(), mas não divide os parâmetros da URL. Isto deve ser usado geralmente em vez de urlparse() se a sintaxe de URL mais recente permitindo que parâmetros sejam aplicados a cada segmento da porção path da URL (veja RFC 2396) for desejada. Uma função separada é necessária para separar os segmentos de caminho e parâmetros. Esta função retorna uma tupla nomeada de 5 itens:
Ler o atributo port irá levantar uma ValueError se uma porta inválida for especificada no URL. Veja a seção Structured Parse Results para mais informações sobre o objeto de resultado.
Colchetes sem correspondência no atributo netloc levantará uma ValueError.
Caracteres no atributo netloc que se decompõem sob a normalização NFKC (como usado pela codificação IDNA) em qualquer um dos /, ?, #, @ ou : vai levantar uma ValueError. Se a URL for decomposta antes da análise, nenhum erro será levantado.
Seguindo algumas das especificações WHATWG que atualizam o RFC 3986, os caracteres de controle C0 e espaço iniciais são removidos da URL. Os caracteres \n, \r e tab \t são removidos da URL em qualquer posição.
Combine the elements of a tuple as returned by urlsplit() into a
complete URL as a string. The parts argument can be any five-item
iterable.
This may result in a slightly different, but equivalent URL, if the
URL that was parsed originally had unnecessary delimiters (for example,
a ? with an empty query; the RFC states that these are equivalent).
If keep_empty is true, empty strings are kept in the result (for example,
a ? for an empty query), only None components are omitted.
This allows rebuilding a URL that was parsed with option
missing_as_none=True.
By default, keep_empty is true if parts is the result of the
urlsplit() call with missing_as_none=True.
Alterado na versão 3.15.0a5 (unreleased): Added the keep_empty parameter.
Constrói uma URL completa (“absoluta”) combinando uma “URL base” (base) com outra URL (url). Informalmente, isso usa componentes da URL base, em particular o esquema de endereçamento, o local da rede e (parte do) caminho, para fornecer componentes ausentes na URL relativa. Por exemplo:
Se você não quiser esse comportamento, pré-processe a url com urlsplit() e urlunsplit(), removendo possíveis partes scheme e netloc.
Aviso
Como uma URL absoluta pode ser passada como o parâmetro url, geralmente não é seguro usar urljoin com uma url controlada pelo invasor. Por exemplo, em urljoin("https://website.com/users/",username), se username puder conter uma URL absoluta, o resultado de urljoin será a URL absoluta.
Alterado na versão 3.5: Comportamento atualizado para corresponder à semântica definida no RFC 3986.
If url contains a fragment identifier, return a modified version of url
with no fragment identifier, and the fragment identifier as a separate
string. If there is no fragment identifier in url, return url unmodified
and an empty string (by default) or None if missing_as_none is true.
O valor de retorno é uma tupla nomeada, seus itens podem ser acessados por índice ou como atributos nomeados:
Extrai a URL de uma URL encapsulada (ou seja, uma string formatada como <URL:esquema://host/caminho>, <esquema://host/caminho>, URL:esquema://host/caminho ou esquema://host/caminho). Se url não for uma URL encapsulada, ela será retornada sem alterações.
As APIs urlsplit() e urlparse() não realizam validação de entradas. Elas podem não levantar erros em entradas que outras aplicações consideram inválidas. Elas também podem ter sucesso em algumas entradas que podem não ser consideradas URLs em outros lugares. Seu propósito é para funcionalidade prática em vez de pureza.
Instead of raising an exception on unusual input, they may instead return some
component parts as empty strings or None (depending on the value of the
missing_as_none argument).
Or components may contain more than perhaps they should.
Recomendamos que os usuários dessas APIs, onde os valores podem ser usados em qualquer lugar com implicações de segurança, codifiquem defensivamente. Faça alguma verificação dentro do seu código antes de confiar em uma parte do componente retornada. Esse esquema faz sentido? Esse caminho sensato? Há algo estranho sobre esse hostname? etc.
O que constitui uma URL não é universalmente bem definido. Diferentes aplicações têm diferentes necessidades e restrições desejadas. Por exemplo, a especificação WHATWG descreve o que os clientes web voltados para o usuário, como um navegador web, exigem. Por outro lado, RFC 3986 é mais geral. Essas funções incorporam alguns aspectos de ambos, mas não podem ser reivindicadas como compatíveis com nenhum deles. As APIs e o código de usuário existente com expectativas sobre comportamentos específicos são anteriores a ambos os padrões, o que nos leva a ser muito cautelosos ao fazer alterações no comportamento da API.
As funções de análise de URL foram originalmente projetadas para operar somente em strings de caracteres. Na prática, é útil ser capaz de manipular URLs corretamente citadas e codificadas como sequências de bytes ASCII. Consequentemente, todas as funções de análise de URL neste módulo operam em objetos bytes e bytearray além de objetos str.
Se dados str forem passados, o resultado também conterá apenas dados str. Se dados bytes ou bytearray forem passados, o resultado conterá apenas dados bytes.
Tentar misturar dados str com bytes ou bytearray em uma única chamada de função resultará em uma TypeError sendo levantada, enquanto tentar passar valores de bytes não-ASCII acionará UnicodeDecodeError.
Para prover uma conversão mais fácil de objetos de resultado entre str e bytes, todos os valores de retorno das funções de análise de URL fornecem um método encode() (quando o resultado contém dados str) ou um método decode() (quando o resultado contém dados bytes). As assinaturas desses métodos correspondem às dos métodos str e bytes correspondentes (exceto que a codificação padrão é 'ascii' em vez de 'utf-8'). Cada um produz um valor de um tipo correspondente que contém dados bytes (para métodos encode()) ou dados str (para métodos decode()).
Os aplicações que precisam operar em URLs possivelmente envolta em aspas de forma incorreta, e que podem conter dados não ASCII, precisarão fazer sua própria decodificação de bytes para caracteres antes de invocar os métodos de análise de URL.
O comportamento descrito nesta seção se aplica somente às funções de análise de URL. As funções de aplicação de aspas em URL usam suas próprias regras ao produzir ou consumir sequências de bytes, conforme detalhado na documentação das funções de citação de URL individuais.
Alterado na versão 3.2: As funções de análise de URL agora aceitam sequências de bytes codificadas em ASCII
The result objects from the urlparse(), urlsplit() and
urldefrag() functions are subclasses of the tuple type.
These subclasses add the attributes listed in the documentation for
those functions, the encoding and decoding support described in the
previous section, as well as an additional method:
Return the re-combined version of the original URL as a string. This may
differ from the original URL in that the scheme may be normalized to lower
case and empty components may be dropped. Specifically, empty parameters,
queries, and fragment identifiers will be removed unless the URL was parsed
with missing_as_none=True.
For urldefrag() results, only empty fragment identifiers will be removed.
For urlsplit() and urlparse() results, all noted changes will be
made to the URL returned by this method.
The result of this method remains unchanged if passed back through the original
parsing function:
The URL quoting functions focus on taking program data and making it safe
for use as URL components by quoting special characters and appropriately
encoding non-ASCII text. They also support reversing these operations to
recreate the original data from the contents of a URL component if that
task isn’t already covered by the URL parsing functions above.
Replace special characters in string using the %xx escape. Letters,
digits, and the characters '_.-~' are never quoted. By default, this
function is intended for quoting the path section of a URL. The optional
safe parameter specifies additional ASCII characters that should not be
quoted — its default value is '/'.
Alterado na versão 3.7: Moved from RFC 2396 to RFC 3986 for quoting URL strings. “~” is now
included in the set of unreserved characters.
The optional encoding and errors parameters specify how to deal with
non-ASCII characters, as accepted by the str.encode() method.
encoding defaults to 'utf-8'.
errors defaults to 'strict', meaning unsupported characters raise a
UnicodeEncodeError.
encoding and errors must not be supplied if string is a
bytes, or a TypeError is raised.
Note that quote(string,safe,encoding,errors) is equivalent to
quote_from_bytes(string.encode(encoding,errors),safe).
Like quote(), but also replace spaces with plus signs, as required for
quoting HTML form values when building up a query string to go into a URL.
Plus signs in the original string are escaped unless they are included in
safe. It also does not have safe default to '/'.
Replace %xx escapes with their single-character equivalent.
The optional encoding and errors parameters specify how to decode
percent-encoded sequences into Unicode characters, as accepted by the
bytes.decode() method.
Convert a mapping object or a sequence of two-element tuples, which may
contain str or bytes objects, to a percent-encoded ASCII
text string. If the resultant string is to be used as a data for POST
operation with the urlopen() function, then
it should be encoded to bytes, otherwise it would result in a
TypeError.
The resulting string is a series of key=value pairs separated by '&'
characters, where both key and value are quoted using the quote_via
function. By default, quote_plus() is used to quote the values, which
means spaces are quoted as a '+' character and ‘/’ characters are
encoded as %2F, which follows the standard for GET requests
(application/x-www-form-urlencoded). An alternate function that can be
passed as quote_via is quote(), which will encode spaces as %20
and not encode ‘/’ characters. For maximum control of what is quoted, use
quote and specify a value for safe.
When a sequence of two-element tuples is used as the query
argument, the first element of each tuple is a key and the second is a
value. The value element in itself can be a sequence and in that case, if
the optional parameter doseq evaluates to True, individual
key=value pairs separated by '&' are generated for each element of
the value sequence for the key. The order of parameters in the encoded
string will match the order of parameter tuples in the sequence.
The safe, encoding, and errors parameters are passed down to
quote_via (the encoding and errors parameters are only passed
when a query element is a str).
To reverse this encoding process, parse_qs() and parse_qsl() are
provided in this module to parse query strings into Python data structures.
Refer to urllib examples to find out how the
urllib.parse.urlencode() method can be used for generating the query
string of a URL or data for a POST request.
Alterado na versão 3.2: query supports bytes and string objects.
Alterado na versão 3.5: Added the quote_via parameter.
Descontinuado desde a versão 3.14: Accepting objects with false values (like 0 and []) except empty
strings and byte-like objects and None is now deprecated.
This is the current standard (STD66). Any changes to urllib.parse module
should conform to this. Certain deviations could be observed, which are
mostly for backward compatibility purposes and for certain de-facto
parsing requirements as commonly observed in major browsers.
RFC 2732 - Format for Literal IPv6 Addresses in URL’s.
This specifies the parsing requirements of IPv6 URLs.
This Request For Comments includes the rules for joining an absolute and a
relative URL, including a fair number of “Abnormal Examples” which govern the
treatment of border cases.