正規表現 HOWTO¶
- 著者
A.M. Kuchling <amk@amk.ca>
概要
このドキュメントは re
モジュールを使って Python で正規表現を扱うための導入のチュートリアルです。ライブラリレファレンスの正規表現の節よりもやさしい入門ドキュメントを用意しています。
はじめに¶
正規表現 regular expressions (REs や regexes または regex patterns と呼ばれます) は本質的に小さく、Python 内部に埋め込まれた高度に特化したプログラミング言語で re
モジュールから利用可能です。この小さな言語を利用することで、マッチさせたい文字列に適合するような文字列の集合を指定することができます; この集合は英文や e-mail アドレスや TeX コマンドなど、どんなものでも構いません。「この文字列は指定したパターンにマッチしますか?」「このパターンはこの文字列のどの部分にマッチするのですか?」といったことを問い合わせることができます。正規表現を使って文字列を変更したりいろいろな方法で別々の部分に分割したりすることもできます。
正規表現パターンは一連のバイトコードとしてコンパイルされ、C で書かれたマッチングエンジンによって実行されます。より進んだ利用法では、エンジンがどう与えられた正規表現を実行するかに注意することが必要になり、高速に実行できるバイトコードを生成するように正規表現を書くことになります。このドキュメントでは最適化までは扱いません、それにはマッチングエンジンの内部に対する十分な理解が必要だからです。
正規表現言語は相対的に小さく、制限されています、そのため正規表現を使ってあらゆる文字列処理作業を行なえるわけではありません。正規表現を使って行うことのできる作業もあります、ただ表現はとても複雑なものになります。それらの場合では、Python コードを書いた方がいいでしょう; Python コードは念入りに作られた正規表現より遅くなりますが、おそらくより読み易いでしょう。
単純なパターン¶
まずはできるだけ簡単な正規表現を学ぶことから始めてみましょう。正規表現は文字列の操作に使われるので、ますは最も一般的な作業である文字のマッチングをしてみます。
正規表現の基礎を成す計算機科学 (決定、非決定有限オートマトン) の詳細な説明については, コンパイラ作成に関するテキストブックをどれでもいいので参照して下さい。
文字のマッチング¶
多くの活字や文字は単純にそれ自身とマッチします。例えば、 test
という正規表現は文字列 test
に厳密にマッチします。(大文字小文字を区別しないモードでその正規表現が Test
や TEST
にも同様にマッチすることもできます; 詳しくは後述します。)
この規則には例外が存在します; いくつかの文字は特別な 特殊文字 (metacharacters) で、それら自身にマッチしません。代わりに通常のマッチするものとは違うという合図を出したり、正規表現の一部に対して繰り返したり、意味を変えたりして影響を与えます。このドキュメントの中の多くは様々な特殊文字とそれが何をするかについて論じることになります。
ここに特殊文字の完全な一覧があります; これらの意味はこの HOWTO の残りの部分で説明します。
. ^ $ * + ? { } [ ] \ | ( )
最初に扱う特殊文字は [
と ]
です。これらは文字クラスを指定します、文字クラスはマッチしたい文字の集合です。文字は個別にリストにしても構いませんし、二つの文字を '-'
でつなげて文字を範囲で与えてもかまいません。たとえば [abc]
は a
, b
, または c
のどの文字列にもマッチします; これは [a-c]
で同じ文字集合を範囲で表現しても全く同じです。小文字のアルファベットのみにマッチしたい場合、 [a-z]
の正規表現をつかうことになるでしょう。
特殊文字は文字クラスの内部では有効になりません。例えば、 [akm$]
は 'a'
, 'k'
, 'm'
または '$'
にマッチします; '$'
は通常は特殊文字ですが、文字クラス内部では特殊な性質は取り除かれます。
文字クラス内のリストにない文字に対しても 補集合 を使ってマッチすることができます。補集合はクラスの最初の文字として '^'
を含めることで表すことができます; 文字クラスの外側の '^'
は単に '^'
文字にマッチします。例えば、 [^5]
は '5'
を除く任意の文字にマッチします。
おそらく最も重要な特殊文字はバックスラッシュ \
でしょう。 Python の文字列リテラルのようにバックスラッシュに続けていろいろな文字を入力することでいろいろな特殊シーケンスの合図を送ることができます。また、バックスラッシュはすべての特殊文字をエスケープするのにも利用されます、つまり、特殊文字をマッチさせることができます; 例えば、 [
または \
にマッチさせたい場合、それらをバックスラッシュに続けることで特殊な意味を除きます: \[
または \\
。
'\'
で始まるいくつかの特殊シーケンスは、数字、アルファベット、空白文字以外など、よく使う文字集合を表しています。
一つ例をお見せしましょう: \w
は任意の英数字文字にマッチします。バイト列パターンに対しては、これは文字クラス [a-zA-Z0-9_]
と等価です。ユニコードパターンに対しては、 \w
は unicodedata
モジュールで提供されている Unicode データベースで letters としてマークされている全ての文字とマッチします。正規表現のコンパイル時に re.ASCII
フラグを与えることにより、 \w
を、より制限された定義で使うことが出来ます。
以下に続く特別な文字列のリストは完全ではありません。特殊シーケンスと拡張クラスについてのユニコードパターンの定義についての完全なリストは、標準ライブラリリファレンスの 正規表現の構文 の最後のパートを参照してください。一般的にユニコードバージョンは、ユニコードデータベース内で相応しいカテゴリに属すればマッチします。
\d
任意の十進数とマッチします; これは集合
[0-9]
と同じ意味です。\D
任意の非数字文字とマッチします; これは集合
[^0-9]
と同じ意味です。\s
任意の空白文字とマッチします; これは集合
[ \t\n\r\f\v]
と同じ意味です。\S
任意の非空白文字とマッチします; これは集合
[^ \t\n\r\f\v]
と同じ意味です。\w
任意の英数文字および下線とマッチします; これは、集合
[a-zA-Z0-9_]
と同じ意味です。\W
任意の非英数文字とマッチします; これは集合
[^a-zA-Z0-9_]
と同じ意味です。
これらのシーケンスは文字クラス内に含めることができます。例えば、 [\s,.]
は空白文字や ','
または '.'
にマッチする文字クラスです。
The final metacharacter in this section is .
. It matches anything except a
newline character, and there's an alternate mode (re.DOTALL
) where it will
match even a newline. .
is often used where you want to match "any
character".
繰り返し¶
さまざまな文字集合をマッチさせることは正規表現で最初にできるようになることで、これは文字列に対するメソッドですぐにできることではありません。しかし、正規表現がより力を発揮する場面がこれだけだとすると、正規表現はあまり先進的とはいえません。正規表現の力をもう一つの能力は、正規表現の一部が何度も繰り返されるようものを指定できることです。
最初にとりあげる繰り返しのための最初の特殊文字は *
です。*
は文字リテラル *
とはマッチしません; その代わりに前の文字が厳密に1回ではなく、0回以上繰り返されるパターンを指定します。
例えば、 ca*t
は 'ct'
( 'a'
という文字が 0 個の場合)、 'cat'
('a'
が1個の場合)、 'caaat'
('a'
が3個の場合)、などにマッチします。
*
のような繰り返しは 貪欲 (greedy) です; 正規表現を繰り返したいとき、マッチングエンジンは可能な限り何度も繰り返そうと試みます。パターンの後ろの部分にマッチしない場合、マッチングエンジンは戻ってより少ない繰り返しを再び試みます。
一歩ずつ例を進めていくとより明確にわかります。
正規表現 a[bcd]*b
を考えましょう。
この正規表現は文字 'a'
、文字クラス [bcd]
の 0 個以上の文字、最後に来る 'b'
にマッチします。
この正規表現が文字列 'abcbd'
に対してマッチする流れを想像してみましょう。
ステップ |
マッチした文字列 |
説明 |
---|---|---|
1 |
|
|
2 |
|
正規表現エンジンが |
3 |
失敗 |
エンジンが |
4 |
|
戻って |
5 |
失敗 |
再び |
6 |
|
再び戻る, |
6 |
|
再び |
正規表現の終端に達して、 'abcd'
にマッチしました。
この説明は、マッチングエンジンが最初に到達できるところまで進みマッチしなかった場合、逐次戻って再度残りの正規表現とのマッチを次々と試みること様子を示しています。
正規表現エンジンは [bcd]*
の 0 回マッチを試すところまで戻り、その後続の正規表現とのマッチに失敗した場合には、エンジンは正規表現と文字列が完全にマッチしないと結論づけることになります。
別の繰り返しのメタ文字には +
があり、この特殊文字は 1 回以上の繰り返しにマッチします。
*
と +
に違いに対しては十分注意して下さい; *
は 0 回 以上の繰り返しにマッチするので、繰り返す部分が全くなくても問題ありません。一方で +
は少なくとも 1 回 は表われる必要があります。
同様の例を使うと ca+t
は 'cat'
('a'
1 文字)、 'caaat'
('a'
3 文字)、とマッチし、'ct'
とはマッチしません。
2回以上の繰り返しを制限する修飾子も存在します。
クエスチョンマーク ?
は0か1回のどちらかにマッチします; これはオプショナルな何かを示しているとも考えられます。
例えば、home-?brew
は 'homebrew'
と 'home-brew'
のどちらにもマッチします。
最も複雑な繰り返しの修飾子は {m,n}
で、ここで m と n は 10 進整数です。
この修飾子は最低 m 回、最大で n 回の繰り返すことを意味しています。
例えば、 a/{1,3}b
は 'a/b'
と 'a//b'
そして 'a///b'
にマッチし、スラッシュの無い 'ab'
や4つのスラッシュを持つ 'a////b'
にはマッチしません。
m か n のどちらかは省略することができます; その場合は、省略された値は合理的な値が仮定されます。 m の省略は下限は 0 と解釈され、n の省略は上限は無限として解釈されます。
還元主義的素養のある読者は、3つの修飾子がこの表記で表現できることに気づくでしょう。 {0,}
は *
と同じで {1,}
は +
と、そして {0,1}
は ?
と同じです。利用できる場合には *
, +
または ?
を利用した方が賢明です、そうすることで単純に、短く読み易くすることができます。
正規表現を使う¶
これまででいくつかの単純な正規表現に触れてきました、実際に Python ではこれらをどう使えばいいのでしょう? re
モジュールは正規表現エンジンに対するインターフェースを提供していて、それらを使うことで正規表現をオブジェクトにコンパイルし、マッチを実行することができます。
正規表現をコンパイルする¶
正規表現はパターンオブジェクトにコンパイルされます、パターンオブジェクトは多くの操作、パターンマッチの検索や文字列の置換の実行などのメソッドを持っています。
>>> import re
>>> p = re.compile('ab*')
>>> p
re.compile('ab*')
re.compile()
はいくつかの flags 引数を受け付けることができます、この引数はさまざまな特別な機能を有効にしたり、構文を変化させたりします。利用できる設定に何があるかは後に飛ばすことにして、簡単な例をやることにしましょう:
>>> p = re.compile('ab*', re.IGNORECASE)
正規表現は文字列として re.compile()
に渡されます。正規表現は文字列として扱われますが、それは正規表現が Python 言語のコアシステムに含まれないためです、そのため正規表現を表わす特殊な構文はありません。 (正規表現を全く必要としないアプリケーションも存在します、そのためそれらを含めて言語仕様を無駄に大きくする必要はありません) その代わり、 re
モジュールは socket
や zlib
モジュールのような通常の C 拡張モジュールとして Python に含まれています。
正規表現を文字列としておくことで Python 言語はより簡素に保たれていますが、そのため1つの欠点があります、これについては次の節で話題とします。
バックスラッシュ感染症¶
先に述べたように、正規表現は特別な形式や特殊な文字の特別な意味を意味を除くことを示すためにバックスラッシュ文字 ('\'
) を利用します。これは Python が文字列リテラルに対して、同じ文字を同じ目的で使うことと衝突します。
\section
という文字列 (これは LaTeX ファイルでみかけます) にマッチする正規表現を書きたいとします。どんなプログラムを書くか考え、マッチして欲しい文字列をはじめに考えます。次に、バックスラッシュや他の特殊文字をバックスラッシュに続けて書くことでエスケープしなければいけません、その結果 \\section
のような文字列となります。こうしてできた re.compile()
に渡す文字列は \\section
でなければいけません。しかし、これを Python の文字列リテラルとして扱うにはこの二つのバックスラッシュを 再び エスケープする必要があります。
文字 |
段階 |
---|---|
|
マッチさせるテキスト |
|
|
|
文字列リテラルのためのバックスラッシュエスケープ |
要点だけをいえば、リテラルとしてのバックスラッシュにマッチさせるために、正規表現文字列として '\\\\'
書かなければいけません、なぜなら正規表現は \\
であり、通常の Python の文字列リテラルとしてはそれぞれのバックスラッシュは \\
で表現しなければいけないからです。正規表現に関してこのバックスラッシュの繰り返しの機能は、たくさんのバックスラッシュの繰り返しを生むことになり、その結果として作られる文字列は理解することが難しくなります。
この問題の解決策としては正規表現に対しては Python の raw string 記法を使うことです; 'r'
を文字列リテラルの先頭に書くことでバックスラッシュは特別扱いされなくなります、つまり "\n"
は改行を含む1つの文字からなる文字列であるのに対して、 r"\n"
は2つの文字 '\'
と 'n'
を含む文字列となります。多くの場合 Python コードの中の正規表現はこの raw string 記法を使って書かれます。
In addition, special escape sequences that are valid in regular expressions,
but not valid as Python string literals, now result in a
DeprecationWarning
and will eventually become a SyntaxError
,
which means the sequences will be invalid if raw string notation or escaping
the backslashes isn't used.
通常の文字列 |
Raw string |
---|---|
|
|
|
|
|
|
マッチの実行¶
一旦コンパイルした正規表現を表現するオブジェクトを作成したら、次に何をしますか? パターンオブジェクトはいくつかのメソッドや属性を持っています。ここでは、その中でも最も重要なものについて扱います; 完全なリストは re
ドキュメントを参照して下さい。
メソッド/属性 |
目的 |
---|---|
|
文字列の先頭で正規表現とマッチするか判定します。 |
|
文字列を操作して、正規表現がどこにマッチするか調べます。 |
|
正規表現にマッチする部分文字列を全て探しだしリストとして返します。 |
|
正規表現にマッチする部分文字列を全て探しだし iterator として返します。 |
match()
and search()
return None
if no match can be found. If
they're successful, a match object instance is returned,
containing information about the match: where it starts and ends, the substring
it matched, and more.
re
モジュールで対話的に実験することで学ぶこともできます。 tkinter
が利用できれば、Python に含まれるデモプログラム Tools/demo/redemo.py を見るといいかもしれません。このデモは正規表現と文字列を入力し、正規表現がマッチしたかどうかを表示します。 redemo.py
は複雑な正規表現のデバッグを試みるときにも便利に使うことができます。
この HOWTO では例として標準の Python インタプリタを使います。最初に Python インタプリタを起動して、 re
モジュールをインポートし、正規表現をコンパイルします:
>>> import re
>>> p = re.compile('[a-z]+')
>>> p
re.compile('[a-z]+')
Now, you can try matching various strings against the RE [a-z]+
. An empty
string shouldn't match at all, since +
means 'one or more repetitions'.
match()
should return None
in this case, which will cause the
interpreter to print no output. You can explicitly print the result of
match()
to make this clear.
>>> p.match("")
>>> print(p.match(""))
None
Now, let's try it on a string that it should match, such as tempo
. In this
case, match()
will return a match object, so you
should store the result in a variable for later use.
>>> m = p.match('tempo')
>>> m
<_sre.SRE_Match object; span=(0, 5), match='tempo'>
これでマッチした文字列についての情報を Match オブジェクト に問い合わせることが出来ます。 Match オブジェクトインスタンスはいくつかのメソッドと属性も持っていて、最も重要なのは次のものです:
メソッド/属性 |
目的 |
---|---|
|
正規表現にマッチした文字列を返す |
|
マッチの開始位置を返す |
|
マッチの終了位置を返す |
|
マッチの位置 (start, end) を含むタプルを返す |
これらのメソッドを試せば、その意味はすぐに理解できます:
>>> m.group()
'tempo'
>>> m.start(), m.end()
(0, 5)
>>> m.span()
(0, 5)
group()
returns the substring that was matched by the RE. start()
and end()
return the starting and ending index of the match. span()
returns both start and end indexes in a single tuple. Since the match()
method only checks if the RE matches at the start of a string, start()
will always be zero. However, the search()
method of patterns
scans through the string, so the match may not start at zero in that
case.
>>> print(p.match('::: message'))
None
>>> m = p.search('::: message'); print(m)
<_sre.SRE_Match object; span=(4, 11), match='message'>
>>> m.group()
'message'
>>> m.span()
(4, 11)
実際のプログラムでは Match オブジェクト を変数に記憶しておき, その次に None
なのか調べるのが一般的なスタイルです。普通このようにします:
p = re.compile( ... )
m = p.match( 'string goes here' )
if m:
print('Match found: ', m.group())
else:
print('No match')
Two pattern methods return all of the matches for a pattern.
findall()
returns a list of matching strings:
>>> p = re.compile(r'\d+')
>>> p.findall('12 drummers drumming, 11 pipers piping, 10 lords a-leaping')
['12', '11', '10']
The r
prefix, making the literal a raw string literal, is needed in this
example because escape sequences in a normal "cooked" string literal that are
not recognized by Python, as opposed to regular expressions, now result in a
DeprecationWarning
and will eventually become a SyntaxError
. See
バックスラッシュ感染症.
findall()
has to create the entire list before it can be returned as the
result. The finditer()
method returns a sequence of
match object instances as an iterator:
>>> iterator = p.finditer('12 drummers drumming, 11 ... 10 ...')
>>> iterator
<callable_iterator object at 0x...>
>>> for match in iterator:
... print(match.span())
...
(0, 2)
(22, 24)
(29, 31)
モジュールレベルの関数¶
パターンオブジェクトを作ってそのメソッドを呼び出す、とする必要は必ずしもありません。 re
モジュールはトップレベルの関数として match()
, search()
, findall()
, sub()
などを用意しています。これら関数は、対応するメソッドの最初の引数に RE が追加されただけで後は同じで、 None
か Match オブジェクト インスタンスを返すのも同じです:
>>> print(re.match(r'From\s+', 'Fromage amk'))
None
>>> re.match(r'From\s+', 'From amk Thu May 14 19:12:10 1998')
<_sre.SRE_Match object; span=(0, 5), match='From '>
内部的には、これら関数は単にあなたのためにパターンオブジェクトを生成し、対応するメソッドを呼び出すだけのことです。とともに、将来の呼び出しで同じ RE のパースが何度も何度も必要とならないよう、コンパイル済みオブジェクトはキャッシュされます。
これらモジュールレベル関数を使うのと、パターンを自身で作って自身で呼び出すのとでどちらを使うべきでしょう? 正規表現をループの内側で使うならば、プリコンパイルは関数呼び出しを減らします。ループの外側であれば、内部キャッシュのおかげで、どちらでも大差ありません。
コンパイルフラグ¶
コンパイルフラグは正規表現の動作をいくつかの側面から変更します。フラグは re
モジュール下で二つの名前で利用することができます、例えば長い名前は IGNORECASE
で短い名前は1文字で I
のようになっています。 (1文字形式は Perl のパターン修飾子と同じ形式を使います; 例えば re.VERBOSE
の短かい形式は re.X
です。) 複数のフラグが OR ビット演算で指定することができます; 例えば re.I | re.M
は I
と M
フラグの両方を設定します。
ここに利用可能なフラグの表があります、それぞれについてのより詳細な説明が後に続きます。
Flag |
意味 |
---|---|
|
|
|
|
|
大文字小文字を区別しないマッチを行います。 |
|
ロケールに対応したマッチを行います。 |
|
|
|
冗長な正規表現を利用できるようにして、よりきれいで理解しやすくまとめることができます。 |
-
I
-
IGNORECASE
Perform case-insensitive matching; character class and literal strings will match letters by ignoring case. For example,
[A-Z]
will match lowercase letters, too. Full Unicode matching also works unless theASCII
flag is used to disable non-ASCII matches. When the Unicode patterns[a-z]
or[A-Z]
are used in combination with theIGNORECASE
flag, they will match the 52 ASCII letters and 4 additional non-ASCII letters: 'İ' (U+0130, Latin capital letter I with dot above), 'ı' (U+0131, Latin small letter dotless i), 'ſ' (U+017F, Latin small letter long s) and 'K' (U+212A, Kelvin sign).Spam
will match'Spam'
,'spam'
,'spAM'
, or'ſpam'
(the latter is matched only in Unicode mode). This lowercasing doesn't take the current locale into account; it will if you also set theLOCALE
flag.
-
L
-
LOCALE
\w
,\W
,\b
,\B
と小文字大文字の区別を無視したマッチングを、 Unicode データベースではなく現在のロケールに従って行います。Locales are a feature of the C library intended to help in writing programs that take account of language differences. For example, if you're processing encoded French text, you'd want to be able to write
\w+
to match words, but\w
only matches the character class[A-Za-z]
in bytes patterns; it won't match bytes corresponding toé
orç
. If your system is configured properly and a French locale is selected, certain C functions will tell the program that the byte corresponding toé
should also be considered a letter. Setting theLOCALE
flag when compiling a regular expression will cause the resulting compiled object to use these C functions for\w
; this is slower, but also enables\w+
to match French words as you'd expect. The use of this flag is discouraged in Python 3 as the locale mechanism is very unreliable, it only handles one "culture" at a time, and it only works with 8-bit locales. Unicode matching is already enabled by default in Python 3 for Unicode (str) patterns, and it is able to handle different locales/languages.
-
M
-
MULTILINE
(
^
と$
についてはまだ説明していません; これらは さらなる特殊文字 の節で説明します。)通常
^
は文字列の先頭にマッチし、$
は文字列の末尾と文字列の末尾に改行(があれば)その直前にマッチします。このフラグが指定されると、^
は文字列の先頭と文字列の中の改行に続く各行の先頭にマッチします。同様に$
特殊文字は文字列の末尾と各行の末尾(各改行の直前)のどちらにもマッチします。
-
S
-
DOTALL
特別な文字
'.'
を改行を含む全ての任意の文字とマッチするようにします; このフラグが無しでは、'.'
は改行 以外 の全てにマッチします。
-
A
-
ASCII
\w
,\W
,\b
,\B
,\s
,\S
が、完全な Unicode マッチングではなく、ASCII のみのマッチングをするようにします。これは Unicode パターンにのみ意味があり、byte パターンには無視されます。
-
X
-
VERBOSE
このフラグはより柔軟な形式で正規表現を読み易く書けるようにします。このフラグを指定すると、正規表現の中の空白は無視されます、ただし、文字クラス内やエスケープされていないバックスラッシュに続く空白の場合は例外として無視されません; これによって正規表現をまとめたり、インデントしてより明確にすることができます。このフラグはさらにエンジンが無視するコメントを追加することもできます; コメントは
'#'
で示します、これは文字クラスやエスケープされていないバックスラッシュに続くものであってはいけません。例えば、ここに
re.VERBOSE
を利用した正規表現があります; 読み易いと思いませんか?charref = re.compile(r""" &[#] # Start of a numeric entity reference ( 0[0-7]+ # Octal form | [0-9]+ # Decimal form | x[0-9a-fA-F]+ # Hexadecimal form ) ; # Trailing semicolon """, re.VERBOSE)
冗長な表現を利用しない設定の場合、正規表現はこうなります:
charref = re.compile("&#(0[0-7]+" "|[0-9]+" "|x[0-9a-fA-F]+);")
上の例では、Python の文字列リテラルの自動結合によって正規表現を小さな部分に分割しています、それでも
re.VERBOSE
を使った場合に比べるとまだ難しくなっています。
パターンの能力をさらに¶
ここまでで、正規表現の機能のほんの一部を扱ってきました。この節では、新たにいくつかの特殊文字とグループを使ってマッチしたテキストの一部をどう取得するかについて扱います。
さらなる特殊文字¶
これまでで、まだ扱っていない特殊文字がいくつかありました。そのほとんどをこの節で扱っていきます。
残りの特殊文字の内いくつかは ゼロ幅アサーション zero-width-assertions に関するものです。これらは文字列に対してエンジンを進めません; 文字列を全く利用しない代わりに、単純に成功か失敗かを利用します。例えば、 \b
は現在位置が単語の境界であることを示します; \b
によってエンジンの読んでいる位置は全く変化しません。つまり、これはゼロ幅アサーションは繰り返し使うことがありません、一度ある位置でマッチしたら、明らかに無限回マッチできます。
|
Alternation, or the "or" operator. If A and B are regular expressions,
A|B
will match any string that matches either A or B.|
has very low precedence in order to make it work reasonably when you're alternating multi-character strings.Crow|Servo
will match either'Crow'
or'Servo'
, not'Cro'
, a'w'
or an'S'
, and'ervo'
.リテラル
'|'
にマッチするには、\|
を利用するか、[|]
のように文字クラス内に収めて下さい。^
行の先頭にマッチします。
MULTILINE
フラグが設定されない場合には、文字列の先頭にのみマッチします。MULTILINE
モードでは文字列内の各改行の直後にマッチします。例えば、行の先頭の
From
にのみマッチさせたい場合には^From
正規表現を利用します。>>> print(re.search('^From', 'From Here to Eternity')) <_sre.SRE_Match object; span=(0, 4), match='From'> >>> print(re.search('^From', 'Reciting From Memory')) None
リテラル
'^'
にマッチするには\^
を利用してください。$
行の末尾にマッチします、行の末尾は文字列の末尾と改行文字の直前として定義されます。
>>> print(re.search('}$', '{block}')) <_sre.SRE_Match object; span=(6, 7), match='}'> >>> print(re.search('}$', '{block} ')) None >>> print(re.search('}$', '{block}\n')) <_sre.SRE_Match object; span=(6, 7), match='}'>
リテラル
'$'
にマッチするには、\$
を利用するか、[$]
のように文字クラス内に収めて下さい。\A
文字列の先頭にのみマッチします。
MULTILINE
モードでない場合には\A
と^
は実質的に同じです。MULTILINE
モードでのこれらの違いは:\A
は依然として文字列の先頭にのみマッチしますが、^
は文字列内に改行文字に続く部分があればそこにマッチすることです。\Z
文字列の末尾とのみマッチします。
\b
単語の境界。これはゼロ幅アサーションで、単語の始まりか終わりにのみマッチします。単語は英数文字のシーケンスとして定義されます、つまり単語の終わりは空白か非英数文字として表われます。
以下の例では
class
がそのものの単語のときのみマッチします; 別の単語内に含まれている場合はマッチしません。>>> p = re.compile(r'\bclass\b') >>> print(p.search('no class at all')) <_sre.SRE_Match object; span=(3, 8), match='class'> >>> print(p.search('the declassified algorithm')) None >>> print(p.search('one subclass is')) None
この特殊シーケンスを利用するときには二つの微妙な点を心にとめておく必要があります。まずひとつめは Python の文字列リテラルと表現の間の最悪の衝突を引き起すことです。Python の文字列リテラルでは
\b
は ASCII 値8のバックスペース文字です。raw string を利用していない場合、Python は\b
をバックスペースに変換し、正規表現は期待するものとマッチしなくなります。以下の例はさきほどと同じ正規表現のように見えますが、正規表現文字列の前の'r'
が省略されています。>>> p = re.compile('\bclass\b') >>> print(p.search('no class at all')) None >>> print(p.search('\b' + 'class' + '\b')) <_sre.SRE_Match object; span=(0, 7), match='\x08class\x08'>
ふたつめはこのアサーションが利用できない文字列クラスの内部では Python の文字列リテラルとの互換性のために、
\b
はバックスペース文字を表わすことになるということです。\B
別のゼロ幅アサーションで、
\b
と逆で、現在の位置が単語の境界でないときにのみマッチします。
グルーピング¶
正規表現にマッチするかどうかだけでなく、より多くの情報を得なければいけない場合は多々あります。正規表現はしばしば、正規表現をいくつかのサブグループに分けて興味ある部分にマッチするようにして、文字列を分割するのに使われます。例えば、RFC-822 ヘッダ行は ':'
を挟んでこのようにヘッダ名と値に分割されます:
From: author@example.com
User-Agent: Thunderbird 1.5.0.9 (X11/20061227)
MIME-Version: 1.0
To: editor@example.com
これはヘッダ全体にマッチし、そしてヘッダ名にマッチするグループとヘッダの値にマッチする別のグループを持つように正規表現を書くことで扱うことができます。
グループは特殊文字 '('
, ')'
で表わされます。 '('
と ')'
は数学での意味とほぼ同じ意味を持っています; その中に含まれた表現はまとめてグループ化され、グループの中身を *
, +
, ?
や {m,n}
のような繰り返しの修飾子を使って繰り返すことができます。例えば、 (ab)*
は ab
の0回以上の繰り返しにマッチします。
>>> p = re.compile('(ab)*')
>>> print(p.match('ababababab').span())
(0, 10)
Groups indicated with '('
, ')'
also capture the starting and ending
index of the text that they match; this can be retrieved by passing an argument
to group()
, start()
, end()
, and
span()
. Groups are
numbered starting with 0. Group 0 is always present; it's the whole RE, so
match object methods all have group 0 as their default
argument. Later we'll see how to express groups that don't capture the span
of text that they match.
>>> p = re.compile('(a)b')
>>> m = p.match('ab')
>>> m.group()
'ab'
>>> m.group(0)
'ab'
サブグループは左から右へ1づつ番号付けされます。グループはネストしてもかまいません; 番号を決めるには、単に開き括弧を左から右へ数え上げます。
>>> p = re.compile('(a(b)c)d')
>>> m = p.match('abcd')
>>> m.group(0)
'abcd'
>>> m.group(1)
'abc'
>>> m.group(2)
'b'
group()
can be passed multiple group numbers at a time, in which case it
will return a tuple containing the corresponding values for those groups.
>>> m.group(2,1,2)
('b', 'abc', 'b')
The groups()
method returns a tuple containing the strings for all the
subgroups, from 1 up to however many there are.
>>> m.groups()
('abc', 'b')
パターン中で後方参照を利用することで、前に取り出されたグループが文字列の中の現在位置で見つかるように指定できます。例えば、\1
はグループ1の内容が現在位置で見つかった場合成功し、それ以外の場合に失敗します。Python の文字列リテラルでもバックスラッシュに続く数字は任意の文字を文字列に含めるために使われるということを心に留めておいて下さい、そのため正規表現で後方参照を含む場合には raw string を必ず利用して下さい。
例えば、以下の正規表現は二重になった単語を検出します。
>>> p = re.compile(r'\b(\w+)\s+\1\b')
>>> p.search('Paris in the the spring').group()
'the the'
このような後方参照は文字列を検索するだけの用途では多くの場合役に立ちません。--- このように繰り返されるテキストフォーマットは少数です。--- しかし、文字列の置換をする場合には とても 有効であることに気づくでしょう。
取り出さないグループと名前つきグループ¶
念入りに作られた正規表現は多くのグループを利用します、その利用法には対象となる部分文字列を取り出す、正規表現自身をグループ化したり構造化する、という二つの方法があります。複雑な正規表現では、グループ番号を追っていくことは困難になっていきます。この問題の解決を助ける二つの機能があります。その両方が正規表現を拡張するための一般的な構文を利用します、まずはそれらをみてみましょう。
Perl 5 は標準正規表現にパワフルな拡張を加えたことでよく知られています。それらの新しい機能のために Perl 開発者たちは、Perl正規表現と標準正規表現との混乱を招く違いなしには、新たな一文字メタキャラクタも \
ではじまる新たな特殊シーケンスもどちらも選択出来ませんでした。たとえば彼らがもし &
を新たなメタキャラクタとして選んでいたら、 &
が通常文字とみなされていた古い正規表現は \&
や [&]
のように書くことでエスケープされなければならなかったでしょう。
解決策として Perl 開発者が選んだものは (?...)
を正規表現構文として利用することでした。括弧の直後の ?
は構文エラーとなります、これは ?
で繰り返す対象がないためです、そのためこれは互換性の問題を持ち込みません。 ?
の直後の文字はどの拡張が利用されるかを示しています、つまり、 (?=foo)
は一つの拡張を利用したもの (肯定先読みアサーション) となり、 (?:foo)
は別の拡張を利用した表現(foo
を含む取り込まないグループ)となります。
Python は Perl の拡張のいくつかをサポートし、また、Perl の拡張に一つ拡張を加えています。クエスチョンマークに続く最初の文字が P
のものは、そうです、Python 固有の拡張です。
一般化された拡張構文についてはわかりましたので、いよいよ複雑な正規表現内でのグループの扱いを単純化する機能に話を戻しましょう。
ときとしてあなたは、正規表現の一部として使いたいけれども、その内容を取り出すことに興味がないようなグループを記述する必要に迫られます。このためには、取り出さないグループ: (?:...)
を使います。 ...
部分は任意の正規表現です。
>>> m = re.match("([abc])+", "abc")
>>> m.groups()
('c',)
>>> m = re.match("(?:[abc])+", "abc")
>>> m.groups()
()
マッチしたグループの内容を取得しないということを除けば、取り込まないグループは厳密に取り込むグループと同様に振る舞います; この中に何を入れてもかまいません、 *
のような繰り返しの特殊文字で繰り返したり、他のグループ (取り込むまたは取り込まない) の入れ子にすることもでいます。 (?:...)
は特に、既にあるパターンを変更する際に便利です、なぜなら他の番号づけ新しいグループを変更することなく新しいグループを追加することができます。取り込むグループと取り込まないグループで検索のパフォーマンスに差がないことにも触れておくべきことです; どちらも同じ速度で動作します。
より重要な機能は名前つきグループです: 番号で参照する代わりに、グループに対して名前で参照できます。
名前つきグループのための構文は、 Python 固有拡張の一つ: (?P<name>...)
を使います。 name は、もちろん、グループの名前です。名前つきグループは取り込むグループと完全に同じに振る舞い、加えて名前が関連付けられます。 Match オブジェクト の取りこむグループを扱うメソッドは全て、番号によるグループ参照のための整数、名前によるグループ参照のための文字列、ともに許容しています。名前つきグループにも番号が振られますので、グループについての情報を、2つの方法で取り出せます:
>>> p = re.compile(r'(?P<word>\b\w+\b)')
>>> m = p.search( '(((( Lots of punctuation )))' )
>>> m.group('word')
'Lots'
>>> m.group(1)
'Lots'
名前つきグループは、番号を覚える代わりに、簡単に覚えられる名前を利用できるので、簡単に扱うことができます。これは imaplib
モジュールから正規表現の例です:
InternalDate = re.compile(r'INTERNALDATE "'
r'(?P<day>[ 123][0-9])-(?P<mon>[A-Z][a-z][a-z])-'
r'(?P<year>[0-9][0-9][0-9][0-9])'
r' (?P<hour>[0-9][0-9]):(?P<min>[0-9][0-9]):(?P<sec>[0-9][0-9])'
r' (?P<zonen>[-+])(?P<zoneh>[0-9][0-9])(?P<zonem>[0-9][0-9])'
r'"')
取得する番号9を覚えるよりも、 m.group('zonem')
で取得した方が明らかに簡単にすみます。
後方参照のための構文 (...)\1
はグループ番号への参照となっています。
グループ番号の代わりに、グループ名を利用する変種があるのは当然でしょう。
これはもう一つの Python 拡張です: (?P=name)
は、 name という名前のグループの内容が、現在の位置で再びマッチすることを示しています。
同じ単語が2つ連なっているのを見つける正規表現 \b(\w+)\s+\1\b
は \b(?P<word>\w+)\s+(?P=word)\b
のように書くけます:
>>> p = re.compile(r'\b(?P<word>\w+)\s+(?P=word)\b')
>>> p.search('Paris in the the spring').group()
'the the'
先読みアサーション (Lookahead Assertions)¶
他のゼロ幅アサーションは先読みアサーションです。先読みアサーションは肯定、否定の両方の形式が利用可能です、これを見てください:
(?=...)
肯定先読みアサーション。
...
で表わす正規表現が現在位置でマッチすれば成功し、それ以外の場合失敗します。しかし、表現が試行された場合でもエンジンは先に進みません; パターンの残りの部分はアサーションの開始時点から右に試行します。(?!...)
否定先読みアサーション。これは肯定アサーションの逆で、正規表現が文字列の現在位置にマッチ しなかった 場合に成功します。
より具体的にするため、先読みが便利な場合をみてみましょう。ファイル名にマッチし、 .
で分けられた基本部分と拡張子に分離する単純なパターンを考えましょう。例えば、 news.rc
は news
が基本部分で rc
がファイル名の拡張子です。
マッチするパターンはとても単純です:
.*[.].*$
.
はメタキャラクタですので特別に扱わなければなりませんから、文字クラス内に入れて、そのものとだけマッチするようにしていることに注目です。末尾の $
にも注目してください; これは残り全ての文字列が拡張子に含まれるべきであることを保障するために追加しています。この正規表現は foo.bar
, autoexec.bat
, sendmail.cf
, printers.conf
にマッチします。
さて、問題を少し複雑にしてみましょう; 拡張子が bat
でないファイル名にマッチしたい場合はどうでしょう?間違った試み:
.*[.][^b].*$
この最初の bat
を除く試みは、最初の文字が b
でないことを要求します。これは誤っています、なぜなら foo.bar
にもマッチしないからです。
.*[.]([^b]..|.[^a].|..[^t])$
正規表現が混乱してきました。最初の解決策を取り繕って、以下の場合に合わせることを要求しています: 拡張子の最初の文字は b
でなく; 二番目の文字は a
でなく; 三番目の文字は t
でない。これは foo.bar
を受け付けますが、 autoexec.bat
は拒否します。しかし、三文字の拡張子を要求し、 sendmail.cf
のような二文字の拡張子を受け付けません。これを修正するのにパターンを再び複雑にすることになります。
.*[.]([^b].?.?|.[^a]?.?|..?[^t]?)$
三番目の試みでは、 sendmail.cf
のように三文字より短い拡張子とマッチするために第二第三の文字を全てオプションにしています。
パターンはさらに複雑さを増し、読みにくく、理解が難しくなりました。より悪いことに、問題が bat
と exe
両方を拡張子から除きたい場合に変わった場合、パターンはより複雑で混乱しやすいものになります。
否定先読みはこの混乱全てを取り除きます:
.*[.](?!bat$)[^.]*$
否定先読みは以下を意味します: この位置で拡張子 bat
にマッチしない場合、残りのパターンが試行されます; もし bat$
にマッチすればパターン全体が失敗します。$
を続けることで、sample.batch
にように bat
で始まる拡張子を許容することを保証しています。
このパターンで [^.]*
を使うことで、ファイル名に複数のドットがあったときにも上手くいくようになります。
他のファイル名の拡張子を除くことも簡単です; 単純にアサーション内に拡張子を代替 (or) で加えます。以下のパターンは bat
や exe
のどちらかで終わるファイル名を除外します:
.*[.](?!bat$|exe$)[^.]*$
文字列を変更する¶
ここまででは単純に静的な文字列に対する検索を実行してきました。正規表現は文字列を様々な方法で変更するのにもよく使われます。変更には以下のパターンメソッドが利用されます:
メソッド/属性 |
目的 |
---|---|
|
文字列をリストに分割する、正規表現がマッチした全ての場所で分割を行う |
|
正規表現にマッチした全ての文字列を発見し、別の文字列に置き換えます |
|
|
文字列の分割¶
The split()
method of a pattern splits a string apart
wherever the RE matches, returning a list of the pieces. It's similar to the
split()
method of strings but provides much more generality in the
delimiters that you can split by; string split()
only supports splitting by
whitespace or by a fixed string. As you'd expect, there's a module-level
re.split()
function, too.
-
.
split
(string[, maxsplit=0]) string を正規表現のマッチで分割します。正規表現内に取り込むための括弧が利用されている場合、その内容も結果のリストの一部として返されます。 maxsplit が非ゼロの場合、最大で maxsplit の分割が実行されます。
maxsplit に値を渡すことで、分割される回数を制限することができます。 maxsplit が非ゼロの場合、最大で maxsplit の分割が行なわれ、文字列の残りがリストの最終要素として返されます。以下の例では、デリミタは任意の英数文字のシーケンスです。
>>> p = re.compile(r'\W+')
>>> p.split('This is a test, short and sweet, of split().')
['This', 'is', 'a', 'test', 'short', 'and', 'sweet', 'of', 'split', '']
>>> p.split('This is a test, short and sweet, of split().', 3)
['This', 'is', 'a', 'test, short and sweet, of split().']
興味の対象がデリミタの間のテキストだけでなく、デリミタが何なのかということを知りたい場合はよくあります。取りこみ用の括弧を正規表現に使った場合、その値もリストの一部として返されます。以下の呼び出しを比較してみましょう:
>>> p = re.compile(r'\W+')
>>> p2 = re.compile(r'(\W+)')
>>> p.split('This... is a test.')
['This', 'is', 'a', 'test', '']
>>> p2.split('This... is a test.')
['This', '... ', 'is', ' ', 'a', ' ', 'test', '.', '']
モジュールレベル関数 re.split()
は最初の引数に利用する正規表現を追加しますが、それ以外は同じです。
>>> re.split(r'[\W]+', 'Words, words, words.')
['Words', 'words', 'words', '']
>>> re.split(r'([\W]+)', 'Words, words, words.')
['Words', ', ', 'words', ', ', 'words', '.', '']
>>> re.split(r'[\W]+', 'Words, words, words.', 1)
['Words', 'words, words.']
検索と置換¶
Another common task is to find all the matches for a pattern, and replace them
with a different string. The sub()
method takes a replacement value,
which can be either a string or a function, and the string to be processed.
-
.
sub
(replacement, string[, count=0]) string 内で最も長く、他の部分と重複するところがない正規表現をを replacement に置換した文字列を返します。パターンが見つからなかった場合 string は変更されずに返されます。
オプション引数 count はパターンの出現の最大置換回数です; count は非負の整数でなければいけません。デフォルト値 0 は全ての出現で置換することを意味します。
Here's a simple example of using the sub()
method. It replaces colour
names with the word colour
:
>>> p = re.compile('(blue|white|red)')
>>> p.sub('colour', 'blue socks and red shoes')
'colour socks and colour shoes'
>>> p.sub('colour', 'blue socks and red shoes', count=1)
'colour socks and red shoes'
The subn()
method does the same work, but returns a 2-tuple containing the
new string value and the number of replacements that were performed:
>>> p = re.compile('(blue|white|red)')
>>> p.subn('colour', 'blue socks and red shoes')
('colour socks and colour shoes', 2)
>>> p.subn('colour', 'no colours at all')
('no colours at all', 0)
空文字列とのマッチは直前にマッチした部分と隣接していない場合にのみ置換されます。
>>> p = re.compile('x*')
>>> p.sub('-', 'abxd')
'-a-b-d-'
replacement が文字列の場合、文字列内のバックスラッシュエスケープは処理されます。つまり、\n
は改行文字に \r
はキャリッジリターンに、等となります。\&
のような未知のエスケープシーケンスはそのまま残されます。\6
のような後方参照は正規表現内の対応するグループにマッチする文字列に置換されます。これを使うことで元のテキストの一部を、置換後の文字列に組み込むことができます。
この例は単語 section
に続く {
と }
で閉じられた文字列にマッチし、 section
を subsection
に変更します:
>>> p = re.compile('section{ ( [^}]* ) }', re.VERBOSE)
>>> p.sub(r'subsection{\1}','section{First} section{second}')
'subsection{First} subsection{second}'
(?P<name>...)
構文で定義された名前つきグループを参照するための構文もあります。 \g<name>
は name
で名前づけされたグループにマッチする文字列を利用し、 \g<number>
は対応するグループ番号を利用します。つまり \g<2>
は \2
と等価ですが、 \g<2>0
のような置換文字列に対しては明確に異なります。 (\20
はグループ番号20への参照と解釈され、グループ2の後にリテラル文字 '0'
が続くとは解釈されません。) 以下に示す置換は全て等価ですが、これらは文字列置換に全部で3種の変種を利用しています。
>>> p = re.compile('section{ (?P<name> [^}]* ) }', re.VERBOSE)
>>> p.sub(r'subsection{\1}','section{First}')
'subsection{First}'
>>> p.sub(r'subsection{\g<1>}','section{First}')
'subsection{First}'
>>> p.sub(r'subsection{\g<name>}','section{First}')
'subsection{First}'
より細かな制御を手中にするために replacement として関数を使うことが出来ます。 replacement が関数であれば、その関数は重なり合わない pattern の発生のたびに呼び出されます。それぞれの呼び出しで、マッチした Match オブジェクト が引数として渡されるので、望みの置換と返却のためにこの情報を利用出来ます。
続く例では、置換関数は十進数文字列を十六進数文字列に変換しています:
>>> def hexrepl(match):
... "Return the hex string for a decimal number"
... value = int(match.group())
... return hex(value)
...
>>> p = re.compile(r'\d+')
>>> p.sub(hexrepl, 'Call 65490 for printing, 49152 for user code.')
'Call 0xffd2 for printing, 0xc000 for user code.'
モジュールレベルの re.sub()
関数を使うときには、パターンが最初の引数として渡されます。パターンはオブジェクトや文字列をとります; 正規表現フラグを指定する必要がある場合、パターンオブジェクトを最初の引数として使うか、修飾子を埋め込んだパターン文字列を使うかしなければいけません、例えば sub("(?i)b+", "x", "bbbb BBBB")
は 'x x'
を返します。
よくある問題¶
正規表現はいくつかの応用に対して強力なツールですが、いくつかの部分でそれらの振る舞いは直感的ではなく、期待通りに振る舞わないことがあります。この節では最もよくある落とし穴を指摘します。
文字列メソッドを利用する¶
いくつかの場合 re
モジュールを利用することは間違いである場合があります。固定文字列や単一の文字クラスにマッチさせる場合や、 IGNORECASE
フラグのような re
の機能を利用しない場合、正規表現の全ての能力は必要とされていなでしょう。文字列は固定文字列に対する操作を実行するメソッドを持っていて、大きな汎用化された正規表現エンジンではなく、目的のために最適化された単一の小さな C loop で実装されているため、大抵の場合高速です.
一つの例としては、単一の固定文字列を別の固定文字列に置き換える作業があるでしょう; 例えば word
を deed
で置換したい場合です。
re.sub()
はこの目的で使う関数のように思えますが、 replace()
メソッドを利用することを考えた方がいいでしょう。
replace()
は単語内の word
も置換し、 swordfish
を sdeedfish
に変えますが、安直な正規表現 word
も同様に動作することに注意して下さい。(単語の一部に対する置換の実行を避けるには、パターンを \bword\b
として、 word
の両側に単語の境界が要求されるようにします。これは replace()
の能力を越えた作業です。)
別のよくある作業は、文字列の中に出現する文字を全て削除することと、別の文字で置換することです。この作業を re.sub('\n', ' ', S)
のようにして行うかもしれませんが、 translate()
は削除と置換の両方の作業をこなし、正規表現操作よりも高速に行うことができます。
要は、 re
モジュールに向う前に問題が高速で単純な文字列メソッドで解決できるか考えましょうということです。
match() 対 search()¶
match()
関数は文字列の先頭に正規表現がマッチするかどうか調べるだけですが、その一方 search()
はマッチするために文字列の先の方まで走査します。
この違いを覚えておくことは重要なことです。
match()
は開始位置0でマッチが成功したときのみ報告する; もし開始位置0でマッチしなければ、 match()
はそれを報告 しない 、ということを覚えておいてください。
>>> print(re.match('super', 'superstition').span())
(0, 5)
>>> print(re.match('super', 'insuperable'))
None
一方 search()
は文字列の先の方まで走査し、最初にみつけたマッチを報告します。:
>>> print(re.search('super', 'superstition').span())
(0, 5)
>>> print(re.search('super', 'insuperable').span())
(2, 7)
しばしば、 re.match()
を使い、 .*
を正規表現の最初に付け加える誘惑にからされることがあるでしょう。この誘惑に打ち克って、代わりに re.search()
を利用すべきです。正規表現コンパイラはマッチを探す処理の高速化のためにいくつかの解析を行います。そのような解析のうちのひとつはマッチの最初の文字が何であるか評価することです; 例えば、 Crow
で始まるパターンは 'C'
から始まらなければいけません。解析によってエンジンは速やかに開始文字を探して走査します、 'C'
が発見された場合にはじめて完全なマッチを試みます。
.*
を追加することはこの最適化を無効にします、文字列の終端までの走査が必要となり、走査後には残りの正規表現とのマッチ部分を見つけるために引き返すことになります。代わりに re.search()
を利用して下さい。
貪欲 (greedy) 対非貪欲 (non-greedy)¶
正規表現を繰り返す場合、たとえば a*
のように、できるだけパターンの多くにマッチするように動作することになります。この動作は、例えば角括弧で囲まれた HTML タグのような左右対称のデリミタの対にマッチしようという場合に問題となります。単一の HTML タグにマッチする素朴な正規表現はうまく動作しません、なぜならば .*
は貪欲に動作するからです。
>>> s = '<html><head><title>Title</title>'
>>> len(s)
32
>>> print(re.match('<.*>', s).span())
(0, 32)
>>> print(re.match('<.*>', s).group())
<html><head><title>Title</title>
正規表現は '<html>'
内の '<'
にマッチし、 .*
は残りの文字列の全てにマッチします。
しかし、正規表現には依然として残っている部分があって、 >
は文字列の終端にマッチしないので、正規表現エンジンは一文字ずつ >
とマッチするまで引き返すことになります。
最終的にマッチする領域は '<html>'
の '<'
から '</title>'
の '>'
まで広がりますが、これは望んだ結果ではありません。
この場合、解決法は非貪欲を示す修飾子 *?
, +?
, ??
または {m,n}?
を利用することです、これらはテキストに可能な限り 少なく マッチします。上の例では、 '>'
は最初の '<'
とのマッチ後すぐに '>'
を試みま、失敗した場合にはエンジンが文字を先に進め、'>'
が毎ステップ再試行されます。この動作は正しい結果を生み出します:
>>> print(re.match('<.*?>', s).group())
<html>
(HTML や XML を正規表現でパースすることは苦痛を伴うものであることは記憶に留めておいて下さい。素早く、汚いパターンは大抵の場合うまく動作しますが、HTML と XML は正規表現が破綻する特別な例です; 全ての可能な場合にうまく動作する正規表現を書き上げたときには、パターンは 非常に 複雑なものになります。そのような作業をする場合には HTML や XML パーサを利用しましょう。)
re.VERBOSE の利用¶
ここまでで、正規表現がとても簡潔な表記であることに気づいたでしょう、また、正規表現は読みやすいものでもないということにも気づいたことでしょう。そこそこに入り組んだ正規表現ははバックスラッシュ、括弧、特殊文字が長く続いて、読みにくく、理解しづらいものになります。
そのような正規表現に対しては、正規表現をコンパイルする時に re.VERBOSE
フラグを指定することが助けになります。なぜなら、より明確な書式で正規表現を書けるからです。
re.VERBOSE
の効果はいくつかあります。正規表現内の文字クラス内に 無い 空白は無視されます。これは、 dog | cat
のような表現が少々可読性の落ちる dog|cat
と等価となるということです、しかし、 [a b]
は依然として 'a'
, 'b'
, または空白にマッチします。加えて、正規表現にコメントを入れることもできるようになります; #
文字から次の改行までがコメントの範囲です。三重クォートを利用することで、正規表現をきちんとフォーマットすることができます:
pat = re.compile(r"""
\s* # Skip leading whitespace
(?P<header>[^:]+) # Header name
\s* : # Whitespace, and a colon
(?P<value>.*?) # The header's value -- *? used to
# lose the following trailing whitespace
\s*$ # Trailing whitespace to end-of-line
""", re.VERBOSE)
これは下よりはるかに読みやすいです:
pat = re.compile(r"\s*(?P<header>[^:]+)\s*:(?P<value>.*?)\s*$")
フィードバック¶
正規表現は複雑な話題です。このドキュメントは助けになったでしょうか?わかりにくかったところや、あなたが遭遇した問題が扱われていない等なかったでしょうか?もしそんな問題があれば、著者に改善の提案を送って下さい。
O'Reilly から出版されている Jeffrey Friedl の Mastering Regular Expressions は正規表現に関するほぼ完璧な書籍です (訳注 日本語訳「詳説 正規表現」が出版されています) 。不幸なことに、この本は Perl と Java の正規表現を集中して扱っていて、 Python の正規表現については全く扱っていません、そのため Python プログラミングのためのレファレンスとして使うことはできません。 (第一版はいまや削除された Python の regex
モジュールについて扱っていましたが、これはあまり役に立たないでしょう。) 図書館で調べるのを検討してみましょう。