20.5. urllib --- URL による任意のリソースへのアクセス¶
注釈
urllib モジュールは、Python 3 で urllib.request, urllib.parse, urllib.error に分割されて名称変更されました。 2to3 ツールが自動的にソースコードのimportを修正します。また、 Python 3 の urllib.request.urlopen() 関数は urllib2.urlopen() を移動したもので、 urllib.urlopen() のほうは削除されています。
このモジュールはワールドワイドウェブ (World Wide Web) を介してデータを取り寄せるための高レベルのインタフェースを提供します。特に、関数 urlopen() は組み込み関数 open() と同様に動作し、ファイル名の代わりにファイルユニバーサルリソースロケータ (URL) を指定することができます。いくつかの制限はあります --- URL は読み出し専用でしか開けませんし、seek 操作を行うことはできません。
参考
より高水準の HTTP クライアントインターフェイスとしては Requests パッケージ がお奨めです。
バージョン 2.7.9 で変更: HTTPS URI の場合、 urllib は必要な証明書検証とホスト名チェックを全てデフォルトで行います。
警告
Python の 2.7.9 より前のバージョンでは urllib は HTTPS URI のサーバ証明書を検証しようとはしません。自己責任でお使いください!
20.5.1. 高レベルインタフェース¶
-
urllib.urlopen(url[, data[, proxies[, context]]])¶ URL で表されるネットワーク上のオブジェクトを読み込み用に開きます。 URL がスキーム識別子を持たないか、スキーム識別子が file: である場合、ローカルシステムのファイルが (universal newlines なしで) 開かれます。それ以外の場合はネットワーク上のどこかにあるサーバへのソケットを開きます。接続を作ることができない場合、例外 IOError が送出されます。全ての処理がうまくいけば、ファイル類似のオブジェクトが返されます。このオブジェクトは以下のメソッド:
read(),readline(),readlines(),fileno(),close(),info(),getcode(),geturl()をサポートします。また、iterator プロトコルも正しくサポートしています。注意:read()の引数を省略または負の値を指定しても、データストリームの最後まで読みこむ訳ではありません。ソケットからすべてのストリームを読み込んだことを決定する一般的な方法は存在しません。info(),getcode(),geturl()メソッドを除き、これらのメソッドはファイルオブジェクトと同じインタフェースを持っています --- このマニュアルの ファイルオブジェクト セクションを参照してください。 (このオブジェクトは組み込みのファイルオブジェクトではありませんが、まれに本物の組み込みファイルオブジェクトが必要な場所で使うことができません)info()メソッドは開いた URL に関連付けられたメタ情報を含むmimetools.Messageクラスのインスタンスを返します。 URL へのアクセスメソッドが HTTP である場合、メタ情報中のヘッダ情報はサーバが HTML ページを返すときに先頭に付加するヘッダ情報です (Content-Length および Content-Type を含みます)。アクセスメソッドが FTP の場合、ファイル取得リクエストに応答してサーバがファイルの長さを返したときには (これは現在では普通になりましたが) Content-Length ヘッダがメタ情報に含められます。 Content-type ヘッダは MIME タイプが推測可能なときにメタ情報に含められます。アクセスメソッドがローカルファイルの場合、返されるヘッダ情報にはファイルの最終更新日時を表す Date エントリ、ファイルのサイズを示す Content-Length エントリ、そして推測されるファイル形式の Content-Type エントリが含まれます。mimetoolsモジュールを参照してください。geturl()メソッドはページの実際の URL を返します。場合によっては、HTTP サーバはクライアントの要求を他の URL に振り向け (redirect 、リダイレクト ) します。関数urlopen()はユーザに対してリダイレクトを透過的に行いますが、呼び出し側にとってクライアントがどの URL にリダイレクトされたかを知りたいときがあります。geturl()メソッドを使うと、このリダイレクトされた URL を取得できます。getcode()メソッドは、レスポンスと共に送られてきたHTTPステータスコードを返します。 URLがHTTP URLでなかった場合は、Noneを返します。url に
http:スキーム識別子を使う場合、 data 引数を与えてPOST形式のリクエストを行うことができます (通常リクエストの形式はGETです)。引数 data は標準の application/x-www-form-urlencoded 形式でなければなりません; 以下のurlencode()関数を参照してください。urlopen()関数は認証を必要としないプロキシ (proxy) に対して透過的に動作します。Unix または Windows 環境では、 Python を起動する前に、環境変数http_proxy,ftp_proxyにそれぞれのプロキシサーバを指定する URL を設定してください。例えば ('%'はコマンドプロンプトです):% http_proxy="http://www.someproxy.com:3128" % export http_proxy % python ...
no_proxy環境変数は、proxyを利用せずにアクセスするべきホストを指定するために利用されます。設定する場合は、カンマ区切りの、ホストネーム suffix のリストで、オプションとして:portを付けることができます。例えば、cern.ch,ncsa.uiuc.edu,some.host:8080.Windows 環境では、プロキシを指定する環境変数が設定されていない場合、プロキシの設定値はレジストリの Internet Settings セクションから取得されます。
Mac OS X では、
urlopen()はプロキシの情報をシステム設定フレームワーク (Mac OS X System Configuration Framework) から取得します。これはシステム環境設定のネットワークパネルから設定できます。別の方法として、オプション引数 proxies を使って明示的にプロキシを設定することができます。この引数はスキーム名をプロキシの URL にマップする辞書型のオブジェクトでなくてはなりません。空の辞書を指定するとプロキシを使いません。
None(デフォルトの値です) を指定すると、上で述べたように環境変数で指定されたプロキシ設定を使います。例えば:# Use http://www.someproxy.com:3128 for HTTP proxying proxies = {'http': 'http://www.someproxy.com:3128'} filehandle = urllib.urlopen(some_url, proxies=proxies) # Don't use any proxies filehandle = urllib.urlopen(some_url, proxies={}) # Use proxies from environment - both versions are equivalent filehandle = urllib.urlopen(some_url, proxies=None) filehandle = urllib.urlopen(some_url)
認証を必要とするプロキシは現在のところサポートされていません。これは実装上の制限 (implementation limitation) と考えています。
context パラメータには
ssl.SSLContextインスタンスをセットします。これはurlopen()が HTTPS 接続をするのに使う SSL 設定を構成します。バージョン 2.3 で変更: proxies のサポートを追加しました。
バージョン 2.6 で変更: 結果オブジェクトに
getcode()を追加し、no_proxy環境変数に対応しました。バージョン 2.7.9 で変更: The context parameter was added. All the neccessary certificate and hostname checks are done by default.
バージョン 2.6 で非推奨:
urlopen()関数は Python 3 ではurllib2.urlopen()を採用のため撤廃されています。
-
urllib.urlretrieve(url[, filename[, reporthook[, data[, context]]]])¶ URL で表されるネットワーク上のオブジェクトを、必要に応じてローカルなファイルにコピーします。URL がローカルなファイルを指定していたり、オブジェクトのコピーが正しくキャッシュされていれば、そのオブジェクトはコピーされません。タプル
(filename, headers)を返し、 filename はローカルで見つかったオブジェクトに対するファイル名で、 headers はurlopen()が返した (おそらくキャッシュされているリモートの) オブジェクトにinfo()を適用して得られるものになります。urlopen()と同じ例外を送出します。The second argument, if present, specifies the file location to copy to (if absent, the location will be a tempfile with a generated name). The third argument, if present, is a callable that will be called once on establishment of the network connection and once after each block read thereafter. The callable will be passed three arguments; a count of blocks transferred so far, a block size in bytes, and the total size of the file. The third argument may be
-1on older FTP servers which do not return a file size in response to a retrieval request.url が
http:スキーム識別子を使っていた場合、オプション引数 data を与えることでPOSTリクエストを行うよう指定することができます (通常リクエストの形式はGETです)。 data 引数は標準の application/x-www-form-urlencoded 形式でなくてはなりません; 以下のurlencode()関数を参照してください。The context parameter may be set to a
ssl.SSLContextinstance to configure the SSL settings that are used ifurlretrieve()makes a HTTPS connection.バージョン 2.5 で変更:
urlretrieve()は、予想 (これは Content-Length ヘッダにより通知されるサイズです) よりも取得できるデータ量が少ないことを検知した場合、ContentTooShortErrorを発生します。これは、例えば、ダウンロードが中断された場合などに発生します。Content-Length は下限として扱われます: より多いデータがある場合、
urlretrieve()はそのデータを読みますが、より少ないデータしか取得できない場合、これは exception を発生します。このような場合にもダウンロードされたデータを取得することは可能で、これは exception インスタンスの
content属性に保存されています。Content-Length ヘッダが無い場合、
urlretrieve()はダウンロードされたデータのサイズをチェックできず、単にそれを返します。この場合は、ダウンロードは成功したと見なす必要があります。バージョン 2.7.9 で変更: The context parameter was added. All the neccessary certificate and hostname checks are done by default.
-
urllib._urlopener¶ パブリック関数
urlopen()およびurlretrieve()はFancyURLopenerクラスのインスタンスを生成します。インスタンスは要求された動作に応じて使用されます。この機能をオーバライドするために、プログラマはURLopenerまたはFancyURLopenerのサブクラスを作り、そのクラスから生成したインスタンスを変数urllib._urlopenerに代入した後、呼び出したい関数を呼ぶことができます。例えば、アプリケーションがURLopenerが定義しているのとは異なった User-Agent ヘッダを指定したい場合があるかもしれません。この機能は以下のコードで実現できます:import urllib class AppURLopener(urllib.FancyURLopener): version = "App/1.7" urllib._urlopener = AppURLopener()
-
urllib.urlcleanup()¶ 以前の
urlretrieve()で生成された可能性のあるキャッシュを消去します。
20.5.2. ユーティリティー関数¶
-
urllib.quote(string[, safe])¶ string に含まれる特殊文字を
%xxエスケープで置換(quote)します。アルファベット、数字、および文字'_.-'はに対しては quote 処理を行いません。この関数はデフォルトでは URL の path セクションに対するクォートを想定しています。オプションのパラメタ safe は quote 処理しない追加の文字を指定します --- デフォルトの値は'/'です。例:
quote('/~connolly/')は'/%7econnolly/'になります。
-
urllib.quote_plus(string[, safe])¶ quote()と似ていますが、加えて空白文字をプラス記号 ("+") に置き換えます。これは HTML フォームの値をURLに付加するクエリ文字列にする際に必要な機能です。もとの文字列におけるプラス記号は safe に含まれていない限りエスケープ置換されます。上と同様に、 safe のデフォルトの値は'/'です。
-
urllib.unquote(string)¶ %xxエスケープをエスケープが表す 1 文字に置き換えます。例:
unquote('/%7Econnolly/')は'/~connolly/'になります。
-
urllib.unquote_plus(string)¶ unquote()と似ていますが、加えてプラス記号を空白文字に置き換えます。これは quote 処理された HTML フォームの値を元に戻すのに必要な機能です。
-
urllib.urlencode(query[, doseq])¶ マップ型オブジェクト、または 2要素のタプルからなるシーケンスを、 "パーセントエンコードされた (percent-encoded)" 文字列に変換して、上述の
urlopen()のオプション引数 data に適した形式にします。この関数はフォームのフィールド値でできた辞書をPOST型のリクエストに渡すときに便利です。返される文字列はkey=valueのペアを'&'で区切ったシーケンスで、 key と value の双方は上のquote_plus()でクォートされます。 2つの要素をもったタプルからなるシーケンスが引数 query として使われた場合、各タプルの最初の値が key で、2 番目の値が value になります。どちらのケースでも value にはシーケンスを入れることができ、その場合オプションのパラメタ doseq の評価結果がTrueであったなら、その key の各々の value に対して'&'で区切られたkey=valueのペアが生成されます。このときエンコードされた文字列中のパラメタの順番はシーケンス中のタプルの順番と同じになります。urlparseモジュールでは、関数parse_qs()およびparse_qsl()を提供しており、クエリ文字列を解析して Python のデータ構造にするのに利用できます。
-
urllib.pathname2url(path)¶ ローカルシステムにおける記法で表されたパス名 path を、URL におけるパス部分の形式に変換します。この関数は完全な URL を生成するわけではありません。返される値は常に
quote()を使って quote 処理されたものになります。
-
urllib.url2pathname(path)¶ URL のパスの部分 path をパーセントエンコードされた URL の形式からローカルシステムにおけるパス記法に変換します。この関数は path をデコードするために
unquote()を使います。
-
urllib.getproxies()¶ このヘルパー関数はスキーマからプロキシサーバーのURLへのマッピングを行う辞書を返します。この関数はまず、どのOSでも最初に
<scheme>_proxyという名前の環境変数を大文字小文字を区別せずにスキャンします。そこで見つからなかった場合、 Max OS X の場合は Mac OSX システム環境設定を、 Windows の場合はシステムレジストリを参照します。もし小文字と大文字の環境変数が両方存在する (そして値が一致しない) なら、小文字の環境変数が優先されます。注釈
もし環境変数
REQUEST_METHODが設定されていたら (これは通常スクリプトが CGI 環境で動いていることを示しています)、環境変数HTTP_PROXY(大文字の_PROXY) は無視されます。その理由は、クライアントが "Proxy:" HTTP ヘッダーを使ってこの環境変数を注入できるからです。もし CGI 環境で HTTP プロキシを使う必要があれば、ProxyHandlerを明示的に使用するか、環境変数名を小文字にしてください (あるいは、少なくともサフィックスを_proxyにしてください) 。
注釈
urllib はある種のユーティリティ関数、 splittype, splithost やその他 URL をパースしてコンポーネントに分解するようなものを剥き出しにしておりますが、これらを使うのではなくて、URL のパースには urlparse を使ってください。Python 3 では urllib.parse でこれらヘルパ関数は曝していません。
20.5.3. URL Opener オブジェクト¶
-
class
urllib.URLopener([proxies[, context[, **x509]]])¶ URL をオープンし、読み出すためのクラスの基底クラスです。
http:,ftp:,file:以外のスキームを使ったオブジェクトのオープンをサポートしたいのでないかぎり、FancyURLopenerを使おうと思うことになるでしょう。デフォルトでは、
URLopenerクラスは User-Agent ヘッダとしてurllib/VVVを送信します。ここで VVV はurllibのバージョン番号です。アプリケーションで独自の User-Agent ヘッダを送信したい場合は、URLopenerかまたはFancyURLopenerのサブクラスを作成し、サブクラス定義においてクラス属性versionを適切な文字列値に設定することで行うことができます。オプションのパラメーター proxies はスキーム名をプロキシの URL にマップする辞書でなければなりません。空の辞書はプロキシ機能を完全にオフにします。デフォルトの値は
Noneで、この場合、urlopen()の定義で述べたように、プロキシを設定する環境変数が存在するならそれを使います。context パラメータは指定する場合
ssl.SSLContextインスタンスです。与えられた場合、これは URL をオープンするオブジェクトが HTTPS 接続をするのに使う SSL 設定を定義します。追加のキーワードパラメーターは x509 に集められますが、これは
https:スキームを使った際のクライアント認証に使われることがあります。キーワード引数 key_file および cert_file が SSL 鍵と証明書を設定するためにサポートされています; クライアント認証をするには両方が必要です。URLopenerオブジェクトは、サーバがエラーコードを返した時にはIOErrorを発生します。バージョン 2.7.9 で変更: The context parameter was added. All the neccessary certificate and hostname checks are done by default.
-
open(fullurl[, data])¶ 適切なプロトコルを使って fullurl を開きます。このメソッドはキャッシュとプロキシ情報を設定し、その後適切な open メソッドを入力引数つきで呼び出します。認識できないスキームが与えられた場合、
open_unknown()が呼び出されます。 data 引数はurlopen()の引数 data と同じ意味を持っています。
-
open_unknown(fullurl[, data])¶ オーバライド可能な、未知のタイプの URL を開くためのインタフェースです。
-
retrieve(url[, filename[, reporthook[, data]]])¶ url のコンテンツを取得し、 filename に書き込みます。返り値はタプルで、ローカルシステムにおけるファイル名と、応答ヘッダを含む
mimetools.Messageオブジェクト(URLがリモートを指している場合)、またはNone(URL がローカルを指している場合) からなります。呼び出し側の処理はその後 filename を開いて内容を読み出さなくてはなりません。 filename が与えられており、かつ URL がローカルシステム上のファイルを示している場合、入力ファイル名が返されます。 URL がローカルのファイルを示しておらず、かつ filename が与えられていない場合、ファイル名は入力 URL の最後のパス構成要素につけられた拡張子と同じ拡張子をtempfile.mktemp()につけたものになります。 reporthook を与える場合、この変数は 3 つの数値パラメタを受け取る関数でなくてはなりません。この関数はデータの塊 (chunk) がネットワークから読み込まれるたびに呼び出されます。ローカルの URL を与えた場合 reporthook は無視されます。url が
http:スキーム識別子を使っていた場合、オプション引数 data を与えることでPOSTリクエストを行うよう指定することができます (通常リクエストの形式はGETです)。 data 引数は標準の application/x-www-form-urlencoded 形式でなくてはなりません; 以下のurlencode()関数を参照してください。
-
-
class
urllib.FancyURLopener(...)¶ FancyURLopenerはURLopenerのサブクラスで、以下の HTTP レスポンスコード: 301、302、303、 307、および 401 を取り扱う機能を提供します。レスポンスコード 30x に対しては、 Location ヘッダを使って実際の URL を取得します。レスポンスコード 401 (認証が要求されていることを示す) に対しては、BASIC認証 (basic HTTP authintication) が行われます。レスポンスコード 30x に対しては、最大で maxtries 属性に指定された数だけ再帰呼び出しを行うようになっています。この値はデフォルトで 10 です。その他のレスポンスコードについては、
http_error_default()が呼ばれます。これはサブクラスでエラーを適切に処理するようにオーバーライドすることができます。注釈
RFC 2616 によると、 POST 要求に対する 301 および 302 応答はユーザの承認無しに自動的にリダイレクトしてはなりません。実際は、これらの応答に対して自動リダイレクトを許すブラウザでは POST を GET に変更しており、
urllibでもこの動作を再現します。コンストラクタに与えるパラメーターは
URLopenerと同じです。注釈
基本的な HTTP 認証を行う際、
FancyURLopenerインスタンスはprompt_user_passwd()メソッドを呼び出します。このメソッドはデフォルトでは実行を制御している端末上で認証に必要な情報を要求するように実装されています。必要ならば、このクラスのサブクラスにおいてより適切な動作をサポートするためにprompt_user_passwd()メソッドをオーバライドしてもかまいません。FancyURLopenerクラスはオーバライド可能な追加のメソッドを提供しており、適切な振る舞いをさせることができます:-
prompt_user_passwd(host, realm)¶ 指定されたセキュリティ領域 (security realm) 下にある与えられたホストにおいて、ユーザー認証に必要な情報を返すための関数です。この関数が返す値は
(user, password)からなるタプルでなければなりません。値は Basic 認証で使われます。このクラスでの実装では、端末に情報を入力するようプロンプトを出します; ローカルの環境において適切な形で対話型モデルを使うには、このメソッドをオーバライドしなければなりません。
-
-
exception
urllib.ContentTooShortError(msg[, content])¶ この例外は
urlretrieve()関数が、ダウンロードされたデータの量が予期した量 (Content-Length ヘッダで与えられる) よりも少ないことを検知した際に発生します。content属性には (恐らく途中までの) ダウンロードされたデータが格納されています。バージョン 2.5 で追加.
20.5.4. urllib の制限¶
現在のところ、以下のプロトコルだけがサポートされています: HTTP、 (バージョン 0.9 および 1.0)、 FTP、およびローカルファイル。
urlretrieve()のキャッシュ機能は、有効期限ヘッダ (Expiration time header) を正しく処理できるようにハックするための時間を取れるまで、無効にしてあります。ある URL がキャッシュにあるかどうか調べるような関数があればと思っています。
後方互換性のため、 URL がローカルシステム上のファイルを指しているように見えるにも関わらずファイルを開くことができなければ、 URL は FTP プロトコルを使って再解釈されます。この機能は時として混乱を招くエラーメッセージを引き起こします。
関数
urlopen()およびurlretrieve()は、ネットワーク接続が確立されるまでの間、一定でない長さの遅延を引き起こすことがあります。このことは、これらの関数を使ってインタラクティブな Web クライアントを構築するのはスレッドなしには難しいことを意味します。urlopen()またはurlretrieve()が返すデータはサーバが返す生のデータです。このデータはバイナリデータ (画像データ等) 、生テキスト (plain text)、または (例えば) HTML でもかまいません。HTTP プロトコルはリプライヘッダ (reply header) にデータのタイプに関する情報を返します。タイプは Content-Type ヘッダを見ることで推測できます。返されたデータがHTML であれば、htmllibを使ってパースすることができます。FTP プロトコルを扱うコードでは、ファイルとディレクトリを区別できません。このことから、アクセスできないファイルを指している URL からデータを読み出そうとすると、予期しない動作を引き起こす場合があります。 URL が
/で終わっていれば、ディレクトリを指しているものとみなして、それに適した処理を行います。しかし、ファイルの読み出し操作が 550 エラー (URL が存在しないか、主にパーミッションの理由でアクセスできない) になった場合、 URL がディレクトリを指していて、末尾の/を忘れたケースを処理するため、パスをディレクトリとして扱います。このために、パーミッションのためにアクセスできないファイルを fetch しようとすると、FTP コードはそのファイルを開こうとして 550 エラーに陥り、次にディレクトリ一覧を表示しようとするため、誤解を生むような結果を引き起こす可能性があるのです。よく調整された制御が必要なら、ftplibモジュールを使うか、FancyURLopenerをサブクラス化するか、 _urlopener を変更して目的に合わせるよう検討してください。このモジュールは認証を必要とするプロキシをサポートしません。将来実装されるかもしれません。
urllibモジュールは URL 文字列を解釈したり構築したりする (ドキュメント化されていない) ルーチンを含んでいますが、URL を操作するためのインタフェースとしては、urlparseモジュールをお勧めします。
20.5.5. 使用例¶
以下は GET メソッドを使ってパラメータを含む URL を取得するセッションの例です:
>>> import urllib
>>> params = urllib.urlencode({'spam': 1, 'eggs': 2, 'bacon': 0})
>>> f = urllib.urlopen("http://www.musi-cal.com/cgi-bin/query?%s" % params)
>>> print f.read()
以下は POST メソッドを代わりに使った例です:
>>> import urllib
>>> params = urllib.urlencode({'spam': 1, 'eggs': 2, 'bacon': 0})
>>> f = urllib.urlopen("http://www.musi-cal.com/cgi-bin/query", params)
>>> print f.read()
以下の例では、環境変数による設定内容に対して上書きする形で HTTP プロキシを明示的に設定しています:
>>> import urllib
>>> proxies = {'http': 'http://proxy.example.com:8080/'}
>>> opener = urllib.FancyURLopener(proxies)
>>> f = opener.open("http://www.python.org")
>>> f.read()
以下の例では、環境変数による設定内容に対して上書きする形で、まったくプロキシを使わないよう設定しています:
>>> import urllib
>>> opener = urllib.FancyURLopener({})
>>> f = opener.open("http://www.python.org/")
>>> f.read()
