urllib.parse
— Analisa URLs para componentes¶
Código-fonte: Lib/urllib/parse.py
Este módulo define uma interface padrão para quebrar strings de Uniform Resource Locator (URL) em componentes (esquema de endereçamento, local de rede, caminho etc.), para combinar os componentes de volta em uma string de URL e para converter uma “URL relativo” em uma URL absoluta dado uma “URL base”.
The module has been designed to match the internet RFC on Relative Uniform
Resource Locators. It supports the following URL schemes: file
, ftp
,
gopher
, hdl
, http
, https
, imap
, mailto
, mms
,
news
, nntp
, prospero
, rsync
, rtsp
, rtspu
, sftp
,
shttp
, sip
, sips
, snews
, svn
, svn+ssh
, telnet
,
wais
, ws
, wss
.
O módulo urllib.parse
define funções que se enquadram em duas grandes categorias: análise de URL e colocação de aspas na URL. Eles são abordados em detalhes nas seções a seguir.
Análise de URL¶
As funções de análise de URL se concentram na divisão de uma string de URL em seus componentes ou na combinação de componentes de URL em uma string de URL.
-
urllib.parse.
urlparse
(urlstring, scheme='', allow_fragments=True)¶ Analisa uma URL em seis componentes, retornando uma tupla nomeada de 6 itens. Isso corresponde à estrutura geral de uma URL:
scheme://netloc/path;parameters?query#fragment
. Cada item da tupla é uma string, possivelmente vazia. Os componentes não são divididos em partes menores (por exemplo, o netloc, ou local da rede, é uma única string) e escapes % não são expandidos. Os delimitadores conforme mostrado acima não fazem parte do resultado, exceto por uma barra inicial no componente path, que é retido se estiver presente. Por exemplo:>>> from urllib.parse import urlparse >>> urlparse("scheme://netloc/path;parameters?query#fragment") ParseResult(scheme='scheme', netloc='netloc', path='/path;parameters', params='', query='query', fragment='fragment') >>> o = urlparse("http://docs.python.org:80/3/library/urllib.parse.html?" ... "highlight=params#url-parsing") >>> o ParseResult(scheme='http', netloc='docs.python.org:80', path='/3/library/urllib.parse.html', params='', query='highlight=params', fragment='url-parsing') >>> o.scheme 'http' >>> o.netloc 'docs.python.org:80' >>> o.hostname 'docs.python.org' >>> o.port 80 >>> o._replace(fragment="").geturl() 'http://docs.python.org:80/3/library/urllib.parse.html?highlight=params'
Seguindo as especificações de sintaxe em RFC 1808, o urlparse reconhece um netloc apenas se for introduzido apropriadamente por ‘//’. Caso contrário, presume-se que a entrada seja uma URL relativa e, portanto, comece com um componente de caminho.
>>> from urllib.parse import urlparse >>> urlparse('//www.cwi.nl:80/%7Eguido/Python.html') ParseResult(scheme='', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html', params='', query='', fragment='') >>> urlparse('www.cwi.nl/%7Eguido/Python.html') ParseResult(scheme='', netloc='', path='www.cwi.nl/%7Eguido/Python.html', params='', query='', fragment='') >>> urlparse('help/Python.html') ParseResult(scheme='', netloc='', path='help/Python.html', params='', query='', fragment='')
O argumento scheme fornece o esquema de endereçamento padrão, a ser usado apenas se o URL não especificar um. Deve ser do mesmo tipo (texto ou bytes) que urlstring, exceto que o valor padrão
''
é sempre permitido e é automaticamente convertido parab''
se apropriado.Se o argumento allow_fragments for falso, os identificadores de fragmento não serão reconhecidos. Em vez disso, eles são analisados como parte do caminho, parâmetros ou componente de consulta, e
fragment
é definido como a string vazia no valor de retorno.O valor de retorno é uma tupla nomeada, o que significa que seus itens podem ser acessados por índice ou como atributos nomeados, que são:
Atributo
Índice
Valor
Valor, se não presente
scheme
0
Especificador do esquema da URL
parâmetro scheme
netloc
1
Parte da localização na rede
string vazia
path
2
Caminho hierárquico
string vazia
params
3
Parâmetros para o último elemento de caminho
string vazia
query
4
Componente da consulta
string vazia
fragment
5
Identificador do fragmento
string vazia
username
Nome do usuário
password
Senha
hostname
Nome de máquina (em minúsculo)
port
Número da porta como inteiro, se presente
Ler o atributo
port
irá levantar umaValueError
se uma porta inválida for especificada no URL. Veja a seção Structured Parse Results para mais informações sobre o objeto de resultado.Colchetes sem correspondência no atributo
netloc
levantará umaValueError
.Caracteres no atributo
netloc
que se decompõem sob a normalização NFKC (como usado pela codificação IDNA) em qualquer um dos/
,?
,#
,@
ou:
vai levantar umaValueError
. Se a URL for decomposta antes da análise, nenhum erro será levantado.Como é o caso com todas as tuplas nomeadas, a subclasse tem alguns métodos e atributos adicionais que são particularmente úteis. Um desses métodos é
_replace()
. O método_replace()
retornará um novo objeto ParseResult substituindo os campos especificados por novos valores.>>> from urllib.parse import urlparse >>> u = urlparse('//www.cwi.nl:80/%7Eguido/Python.html') >>> u ParseResult(scheme='', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html', params='', query='', fragment='') >>> u._replace(scheme='http') ParseResult(scheme='http', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html', params='', query='', fragment='')
Aviso
urlparse()
não realiza validação. Veja Segurança ao analisar URLs para detalhes.Alterado na versão 3.2: Adicionados recursos de análise de URL IPv6.
Alterado na versão 3.3: The fragment is now parsed for all URL schemes (unless allow_fragment is false), in accordance with RFC 3986. Previously, an allowlist of schemes that support fragments existed.
Alterado na versão 3.6: Números de porta fora do intervalo agora levantam
ValueError
, em vez de retornarNone
.Alterado na versão 3.8: Os caracteres que afetam a análise de netloc sob normalização NFKC agora levantarão
ValueError
.
-
urllib.parse.
parse_qs
(qs, keep_blank_values=False, strict_parsing=False, encoding='utf-8', errors='replace', max_num_fields=None, separator='&')¶ Analisa uma string de consulta fornecida como um argumento de string (dados do tipo application/x-www-form-urlencoded). Os dados são retornados como um dicionário. As chaves de dicionário são os nomes de variáveis de consulta exclusivos e os valores são listas de valores para cada nome.
O argumento opcional keep_blank_values é um sinalizador que indica se os valores em branco em consultas codificadas por porcentagem devem ser tratados como strings em branco. Um valor verdadeiro indica que os espaços em branco devem ser mantidos como strings em branco. O valor falso padrão indica que os valores em branco devem ser ignorados e tratados como se não tivessem sido incluídos.
O argumento opcional strict_parsing é um sinalizador que indica o que fazer com os erros de análise. Se falsO (o padrão), os erros são ignorados silenciosamente. Se verdadeiro, os erros levantam uma exceção
ValueError
.Os parâmetros opcionais encoding e errors especificam como decodificar sequências codificadas em porcentagem em caracteres Unicode, conforme aceito pelo método
bytes.decode()
.O argumento opcional max_num_fields é o número máximo de campos a serem lidos. Se definido, então levanta um
ValueError
se houver mais de max_num_fields campos lidos.O argumento opcional separador é o símbolo a ser usado para separar os argumentos da consulta. O padrão é
&
.Use a função
urllib.parse.urlencode()
(com o parâmetrodoseq
definido comoTrue
) para converter esses dicionários em strings de consulta.Alterado na versão 3.2: Adicionado os parâmetros encoding e errors.
Alterado na versão 3.8: Adicionado o parâmetro max_num_fields.
Alterado na versão 3.10: Adicionado parâmetro separator com o valor padrão de
&
. Versões do Python anteriores ao Python 3.10 permitiam o uso de;
e&
como separador de parâmetro de consulta. Isso foi alterado para permitir apenas uma única chave separadora, com&
como o separador padrão.
-
urllib.parse.
parse_qsl
(qs, keep_blank_values=False, strict_parsing=False, encoding='utf-8', errors='replace', max_num_fields=None, separator='&')¶ Analisa uma string de consulta fornecida como um argumento de string (dados do tipo application/x-www-form-urlencoded). Os dados são retornados como uma lista de pares de nome e valor.
O argumento opcional keep_blank_values é um sinalizador que indica se os valores em branco em consultas codificadas por porcentagem devem ser tratados como strings em branco. Um valor verdadeiro indica que os espaços em branco devem ser mantidos como strings em branco. O valor falso padrão indica que os valores em branco devem ser ignorados e tratados como se não tivessem sido incluídos.
O argumento opcional strict_parsing é um sinalizador que indica o que fazer com os erros de análise. Se falsO (o padrão), os erros são ignorados silenciosamente. Se verdadeiro, os erros levantam uma exceção
ValueError
.Os parâmetros opcionais encoding e errors especificam como decodificar sequências codificadas em porcentagem em caracteres Unicode, conforme aceito pelo método
bytes.decode()
.O argumento opcional max_num_fields é o número máximo de campos a serem lidos. Se definido, então levanta um
ValueError
se houver mais de max_num_fields campos lidos.O argumento opcional separador é o símbolo a ser usado para separar os argumentos da consulta. O padrão é
&
.Use a função
urllib.parse.urlencode()
para converter essas listas pares de strings de consulta.Alterado na versão 3.2: Adicionado os parâmetros encoding e errors.
Alterado na versão 3.8: Adicionado o parâmetro max_num_fields.
Alterado na versão 3.10: Adicionado parâmetro separator com o valor padrão de
&
. Versões do Python anteriores ao Python 3.10 permitiam o uso de;
e&
como separador de parâmetro de consulta. Isso foi alterado para permitir apenas uma única chave separadora, com&
como o separador padrão.
-
urllib.parse.
urlunparse
(parts)¶ Constrói uma URL a partir de uma tupla conforme retornada por
urlparse()
. O argumento parts pode ser qualquer iterável de seis itens. Isso pode resultar em uma URL ligeiramente diferente, mas equivalente, se a URL que foi analisada originalmente tiver delimitadores desnecessários (por exemplo, um?
com uma consulta vazia; o RFC afirma que eles são equivalentes).
-
urllib.parse.
urlsplit
(urlstring, scheme='', allow_fragments=True)¶ Isto é similar a
urlparse()
, mas não divide os parâmetros da URL. Isto deve ser usado geralmente em vez deurlparse()
se a sintaxe de URL mais recente permitindo que parâmetros sejam aplicados a cada segmento da porção path da URL (veja RFC 2396) for desejada. Uma função separada é necessária para separar os segmentos de caminho e parâmetros. Esta função retorna uma tupla nomeada de 5 itens:(addressing scheme, network location, path, query, fragment identifier).
O valor de retorno é uma tupla nomeada, seus itens podem ser acessados por índice ou como atributos nomeados:
Atributo
Índice
Valor
Valor, se não presente
scheme
0
Especificador do esquema da URL
parâmetro scheme
netloc
1
Parte da localização na rede
string vazia
path
2
Caminho hierárquico
string vazia
query
3
Componente da consulta
string vazia
fragment
4
Identificador do fragmento
string vazia
username
Nome do usuário
password
Senha
hostname
Nome de máquina (em minúsculo)
port
Número da porta como inteiro, se presente
Ler o atributo
port
irá levantar umaValueError
se uma porta inválida for especificada no URL. Veja a seção Structured Parse Results para mais informações sobre o objeto de resultado.Colchetes sem correspondência no atributo
netloc
levantará umaValueError
.Caracteres no atributo
netloc
que se decompõem sob a normalização NFKC (como usado pela codificação IDNA) em qualquer um dos/
,?
,#
,@
ou:
vai levantar umaValueError
. Se a URL for decomposta antes da análise, nenhum erro será levantado.Seguindo algumas das especificações WHATWG que atualizam o RFC 3986, os caracteres de controle C0 e espaço iniciais são removidos da URL. Os caracteres
\n
,\r
e tab\t
são removidos da URL em qualquer posição.Aviso
urlsplit()
não executa validação. Veja Segurança ao analisar URLs para detalhes.Alterado na versão 3.6: Números de porta fora do intervalo agora levantam
ValueError
, em vez de retornarNone
.Alterado na versão 3.8: Os caracteres que afetam a análise de netloc sob normalização NFKC agora levantarão
ValueError
.Alterado na versão 3.10: Caracteres de nova linha e tabulação ASCII são removidos do URL.
Alterado na versão 3.10.12: Os caracteres iniciais de espaço e de controle WHATWG C0 são removidos do URL.
-
urllib.parse.
urlunsplit
(parts)¶ Combina os elementos de uma tupla conforme retornado por
urlsplit()
em uma URL completa como uma string. O argumento parts pode ser qualquer iterável de cinco itens. Isso pode resultar em uma URL ligeiramente diferente, mas equivalente, se a URL que foi analisada originalmente tiver delimitadores desnecessários (por exemplo, um ? com uma consulta vazia; o RFC afirma que eles são equivalentes).
-
urllib.parse.
urljoin
(base, url, allow_fragments=True)¶ Constrói uma URL completa (“absoluta”) combinando uma “URL base” (base) com outra URL (url). Informalmente, isso usa componentes da URL base, em particular o esquema de endereçamento, o local da rede e (parte do) caminho, para fornecer componentes ausentes na URL relativa. Por exemplo:
>>> from urllib.parse import urljoin >>> urljoin('http://www.cwi.nl/%7Eguido/Python.html', 'FAQ.html') 'http://www.cwi.nl/%7Eguido/FAQ.html'
O argumento allow_fragments tem o mesmo significado e padrão que
urlparse()
.Nota
Se url for uma URL absoluta (ou seja, começa com
//
ouscheme://
), o nome do host e/ou esquema da url estarão presentes no resultado. Por exemplo:>>> urljoin('http://www.cwi.nl/%7Eguido/Python.html', ... '//www.python.org/%7Eguido') 'http://www.python.org/%7Eguido'
Se você não quiser esse comportamento, pré-processe a url com
urlsplit()
eurlunsplit()
, removendo possíveis partes scheme e netloc.Alterado na versão 3.5: Comportamento atualizado para corresponder à semântica definida no RFC 3986.
-
urllib.parse.
urldefrag
(url)¶ Se url contiver um identificador de fragmento, retorna uma versão modificada de url sem identificador de fragmento, e o identificador de fragmento como uma string separada. Se não houver identificador de fragmento em url, retorna url não modificado e uma string vazia.
O valor de retorno é uma tupla nomeada, seus itens podem ser acessados por índice ou como atributos nomeados:
Atributo
Índice
Valor
Valor, se não presente
url
0
URL com nenhum fragmento
string vazia
fragment
1
Identificador do fragmento
string vazia
Veja a seção Structured Parse Results para obter mais informações sobre o objeto de resultado.
Alterado na versão 3.2: O resultado é um objeto estruturado em vez de uma simples tupla de 2 elementos.
-
urllib.parse.
unwrap
(url)¶ Extrai a URL de uma URL encapsulada (ou seja, uma string formatada como
<URL:esquema://host/caminho>
,<esquema://host/caminho>
,URL:esquema://host/caminho
ouesquema://host/caminho
). Se url não for uma URL encapsulada, ela será retornada sem alterações.
Segurança ao analisar URLs¶
As APIs urlsplit()
e urlparse()
não realizam validação de entradas. Elas podem não levantar erros em entradas que outras aplicações consideram inválidas. Elas também podem ter sucesso em algumas entradas que podem não ser consideradas URLs em outros lugares. Seu propósito é para funcionalidade prática em vez de pureza.
Em vez de levantar uma exceção em uma entrada incomum, eles podem retornar algumas partes do componente como strings vazias. Ou os componentes podem conter mais do que talvez devessem.
Recomendamos que os usuários dessas APIs, onde os valores podem ser usados em qualquer lugar com implicações de segurança, codifiquem defensivamente. Faça alguma verificação dentro do seu código antes de confiar em uma parte do componente retornada. Esse esquema
faz sentido? Esse caminho
sensato? Há algo estranho sobre esse hostname
? etc.
Analisando bytes codificados em ASCII¶
As funções de análise de URL foram originalmente projetadas para operar somente em strings de caracteres. Na prática, é útil ser capaz de manipular URLs corretamente citadas e codificadas como sequências de bytes ASCII. Consequentemente, todas as funções de análise de URL neste módulo operam em objetos bytes
e bytearray
além de objetos str
.
Se dados str
forem passados, o resultado também conterá apenas dados str
. Se dados bytes
ou bytearray
forem passados, o resultado conterá apenas dados bytes
.
Tentar misturar dados str
com bytes
ou bytearray
em uma única chamada de função resultará em uma TypeError
sendo levantada, enquanto tentar passar valores de bytes não-ASCII acionará UnicodeDecodeError
.
Para prover uma conversão mais fácil de objetos de resultado entre str
e bytes
, todos os valores de retorno das funções de análise de URL fornecem um método encode()
(quando o resultado contém dados str
) ou um método decode()
(quando o resultado contém dados bytes
). As assinaturas desses métodos correspondem às dos métodos str
e bytes
correspondentes (exceto que a codificação padrão é 'ascii'
em vez de 'utf-8'
). Cada um produz um valor de um tipo correspondente que contém dados bytes
(para métodos encode()
) ou dados str
(para métodos decode()
).
Os aplicações que precisam operar em URLs possivelmente envolta em aspas de forma incorreta, e que podem conter dados não ASCII, precisarão fazer sua própria decodificação de bytes para caracteres antes de invocar os métodos de análise de URL.
O comportamento descrito nesta seção se aplica somente às funções de análise de URL. As funções de aplicação de aspas em URL usam suas próprias regras ao produzir ou consumir sequências de bytes, conforme detalhado na documentação das funções de citação de URL individuais.
Alterado na versão 3.2: As funções de análise de URL agora aceitam sequências de bytes codificadas em ASCII
Structured Parse Results¶
The result objects from the urlparse()
, urlsplit()
and
urldefrag()
functions are subclasses of the tuple
type.
These subclasses add the attributes listed in the documentation for
those functions, the encoding and decoding support described in the
previous section, as well as an additional method:
-
urllib.parse.SplitResult.
geturl
()¶ Return the re-combined version of the original URL as a string. This may differ from the original URL in that the scheme may be normalized to lower case and empty components may be dropped. Specifically, empty parameters, queries, and fragment identifiers will be removed.
For
urldefrag()
results, only empty fragment identifiers will be removed. Forurlsplit()
andurlparse()
results, all noted changes will be made to the URL returned by this method.The result of this method remains unchanged if passed back through the original parsing function:
>>> from urllib.parse import urlsplit >>> url = 'HTTP://www.Python.org/doc/#' >>> r1 = urlsplit(url) >>> r1.geturl() 'http://www.Python.org/doc/' >>> r2 = urlsplit(r1.geturl()) >>> r2.geturl() 'http://www.Python.org/doc/'
The following classes provide the implementations of the structured parse
results when operating on str
objects:
-
class
urllib.parse.
DefragResult
(url, fragment)¶ Concrete class for
urldefrag()
results containingstr
data. Theencode()
method returns aDefragResultBytes
instance.Novo na versão 3.2.
-
class
urllib.parse.
ParseResult
(scheme, netloc, path, params, query, fragment)¶ Concrete class for
urlparse()
results containingstr
data. Theencode()
method returns aParseResultBytes
instance.
-
class
urllib.parse.
SplitResult
(scheme, netloc, path, query, fragment)¶ Concrete class for
urlsplit()
results containingstr
data. Theencode()
method returns aSplitResultBytes
instance.
The following classes provide the implementations of the parse results when
operating on bytes
or bytearray
objects:
-
class
urllib.parse.
DefragResultBytes
(url, fragment)¶ Concrete class for
urldefrag()
results containingbytes
data. Thedecode()
method returns aDefragResult
instance.Novo na versão 3.2.
-
class
urllib.parse.
ParseResultBytes
(scheme, netloc, path, params, query, fragment)¶ Concrete class for
urlparse()
results containingbytes
data. Thedecode()
method returns aParseResult
instance.Novo na versão 3.2.
-
class
urllib.parse.
SplitResultBytes
(scheme, netloc, path, query, fragment)¶ Concrete class for
urlsplit()
results containingbytes
data. Thedecode()
method returns aSplitResult
instance.Novo na versão 3.2.
URL Quoting¶
The URL quoting functions focus on taking program data and making it safe for use as URL components by quoting special characters and appropriately encoding non-ASCII text. They also support reversing these operations to recreate the original data from the contents of a URL component if that task isn’t already covered by the URL parsing functions above.
-
urllib.parse.
quote
(string, safe='/', encoding=None, errors=None)¶ Replace special characters in string using the
%xx
escape. Letters, digits, and the characters'_.-~'
are never quoted. By default, this function is intended for quoting the path section of a URL. The optional safe parameter specifies additional ASCII characters that should not be quoted — its default value is'/'
.string may be either a
str
or abytes
object.Alterado na versão 3.7: Moved from RFC 2396 to RFC 3986 for quoting URL strings. “~” is now included in the set of unreserved characters.
The optional encoding and errors parameters specify how to deal with non-ASCII characters, as accepted by the
str.encode()
method. encoding defaults to'utf-8'
. errors defaults to'strict'
, meaning unsupported characters raise aUnicodeEncodeError
. encoding and errors must not be supplied if string is abytes
, or aTypeError
is raised.Note that
quote(string, safe, encoding, errors)
is equivalent toquote_from_bytes(string.encode(encoding, errors), safe)
.Example:
quote('/El Niño/')
yields'/El%20Ni%C3%B1o/'
.
-
urllib.parse.
quote_plus
(string, safe='', encoding=None, errors=None)¶ Like
quote()
, but also replace spaces with plus signs, as required for quoting HTML form values when building up a query string to go into a URL. Plus signs in the original string are escaped unless they are included in safe. It also does not have safe default to'/'
.Example:
quote_plus('/El Niño/')
yields'%2FEl+Ni%C3%B1o%2F'
.
-
urllib.parse.
quote_from_bytes
(bytes, safe='/')¶ Like
quote()
, but accepts abytes
object rather than astr
, and does not perform string-to-bytes encoding.Example:
quote_from_bytes(b'a&\xef')
yields'a%26%EF'
.
-
urllib.parse.
unquote
(string, encoding='utf-8', errors='replace')¶ Replace
%xx
escapes with their single-character equivalent. The optional encoding and errors parameters specify how to decode percent-encoded sequences into Unicode characters, as accepted by thebytes.decode()
method.string may be either a
str
or abytes
object.encoding defaults to
'utf-8'
. errors defaults to'replace'
, meaning invalid sequences are replaced by a placeholder character.Example:
unquote('/El%20Ni%C3%B1o/')
yields'/El Niño/'
.Alterado na versão 3.9: string parameter supports bytes and str objects (previously only str).
-
urllib.parse.
unquote_plus
(string, encoding='utf-8', errors='replace')¶ Like
unquote()
, but also replace plus signs with spaces, as required for unquoting HTML form values.string must be a
str
.Example:
unquote_plus('/El+Ni%C3%B1o/')
yields'/El Niño/'
.
-
urllib.parse.
unquote_to_bytes
(string)¶ Replace
%xx
escapes with their single-octet equivalent, and return abytes
object.string may be either a
str
or abytes
object.If it is a
str
, unescaped non-ASCII characters in string are encoded into UTF-8 bytes.Example:
unquote_to_bytes('a%26%EF')
yieldsb'a&\xef'
.
-
urllib.parse.
urlencode
(query, doseq=False, safe='', encoding=None, errors=None, quote_via=quote_plus)¶ Convert a mapping object or a sequence of two-element tuples, which may contain
str
orbytes
objects, to a percent-encoded ASCII text string. If the resultant string is to be used as a data for POST operation with theurlopen()
function, then it should be encoded to bytes, otherwise it would result in aTypeError
.The resulting string is a series of
key=value
pairs separated by'&'
characters, where both key and value are quoted using the quote_via function. By default,quote_plus()
is used to quote the values, which means spaces are quoted as a'+'
character and ‘/’ characters are encoded as%2F
, which follows the standard for GET requests (application/x-www-form-urlencoded
). An alternate function that can be passed as quote_via isquote()
, which will encode spaces as%20
and not encode ‘/’ characters. For maximum control of what is quoted, usequote
and specify a value for safe.When a sequence of two-element tuples is used as the query argument, the first element of each tuple is a key and the second is a value. The value element in itself can be a sequence and in that case, if the optional parameter doseq evaluates to
True
, individualkey=value
pairs separated by'&'
are generated for each element of the value sequence for the key. The order of parameters in the encoded string will match the order of parameter tuples in the sequence.The safe, encoding, and errors parameters are passed down to quote_via (the encoding and errors parameters are only passed when a query element is a
str
).To reverse this encoding process,
parse_qs()
andparse_qsl()
are provided in this module to parse query strings into Python data structures.Refer to urllib examples to find out how the
urllib.parse.urlencode()
method can be used for generating the query string of a URL or data for a POST request.Alterado na versão 3.2: query supports bytes and string objects.
Novo na versão 3.5: quote_via parameter.
Ver também
- WHATWG - URL Living standard
Working Group for the URL Standard that defines URLs, domains, IP addresses, the application/x-www-form-urlencoded format, and their API.
- RFC 3986 - Uniform Resource Identifiers
This is the current standard (STD66). Any changes to urllib.parse module should conform to this. Certain deviations could be observed, which are mostly for backward compatibility purposes and for certain de-facto parsing requirements as commonly observed in major browsers.
- RFC 2732 - Format for Literal IPv6 Addresses in URL’s.
This specifies the parsing requirements of IPv6 URLs.
- RFC 2396 - Uniform Resource Identifiers (URI): Generic Syntax
Document describing the generic syntactic requirements for both Uniform Resource Names (URNs) and Uniform Resource Locators (URLs).
- RFC 2368 - The mailto URL scheme.
Parsing requirements for mailto URL schemes.
- RFC 1808 - Relative Uniform Resource Locators
This Request For Comments includes the rules for joining an absolute and a relative URL, including a fair number of “Abnormal Examples” which govern the treatment of border cases.
- RFC 1738 - Uniform Resource Locators (URL)
This specifies the formal syntax and semantics of absolute URLs.