Python實現(xiàn)一個簡單的遞歸下降分析器
問題
你想根據(jù)一組語法規(guī)則解析文本并執(zhí)行命令,或者構(gòu)造一個代表輸入的抽象語法樹。 如果語法非常簡單,你可以不去使用一些框架,而是自己寫這個解析器。
解決方案
在這個問題中,我們集中討論根據(jù)特殊語法去解析文本的問題。 為了這樣做,你首先要以BNF或者EBNF形式指定一個標(biāo)準(zhǔn)語法。 比如,一個簡單數(shù)學(xué)表達(dá)式語法可能像下面這樣:
expr ::= expr + term
| expr - term
| termterm ::= term * factor
| term / factor
| factorfactor ::= ( expr )
| NUM
或者,以EBNF形式:
expr ::= term { (+|-) term }*
term ::= factor { (*|/) factor }*
factor ::= ( expr )
| NUM
在EBNF中,被包含在 {...}*
中的規(guī)則是可選的。*代表0次或多次重復(fù)(跟正則表達(dá)式中意義是一樣的)。
現(xiàn)在,如果你對BNF的工作機(jī)制還不是很明白的話,就把它當(dāng)做是一組左右符號可相互替換的規(guī)則。 一般來講,解析的原理就是你利用BNF完成多個替換和擴(kuò)展以匹配輸入文本和語法規(guī)則。 為了演示,假設(shè)你正在解析形如 3 + 4 * 5
的表達(dá)式。 這個表達(dá)式先要通過使用2.18節(jié)中介紹的技術(shù)分解為一組令牌流。 結(jié)果可能是像下列這樣的令牌序列:
NUM + NUM * NUM
在此基礎(chǔ)上, 解析動作會試著去通過替換操作匹配語法到輸入令牌:
expr
expr ::= term { (+|-) term }*
expr ::= factor { (*|/) factor }* { (+|-) term }*
expr ::= NUM { (*|/) factor }* { (+|-) term }*
expr ::= NUM { (+|-) term }*
expr ::= NUM + term { (+|-) term }*
expr ::= NUM + factor { (*|/) factor }* { (+|-) term }*
expr ::= NUM + NUM { (*|/) factor}* { (+|-) term }*
expr ::= NUM + NUM * factor { (*|/) factor }* { (+|-) term }*
expr ::= NUM + NUM * NUM { (*|/) factor }* { (+|-) term }*
expr ::= NUM + NUM * NUM { (+|-) term }*
expr ::= NUM + NUM * NUM
下面所有的解析步驟可能需要花點時間弄明白,但是它們原理都是查找輸入并試著去匹配語法規(guī)則。 第一個輸入令牌是NUM,因此替換首先會匹配那個部分。 一旦匹配成功,就會進(jìn)入下一個令牌+,以此類推。 當(dāng)已經(jīng)確定不能匹配下一個令牌的時候,右邊的部分(比如 { (*/) factor }* )就會被清理掉。 在一個成功的解析中,整個右邊部分會完全展開來匹配輸入令牌流。
有了前面的知識背景,下面我們舉一個簡單示例來展示如何構(gòu)建一個遞歸下降表達(dá)式求值程序:
#!/usr/bin/env python # -*- encoding: utf-8 -*- """ Topic: 下降解析器 Desc : """ import re import collections # Token specification NUM = r'(?P<NUM>\d+)' PLUS = r'(?P<PLUS>\+)' MINUS = r'(?P<MINUS>-)' TIMES = r'(?P<TIMES>\*)' DIVIDE = r'(?P<DIVIDE>/)' LPAREN = r'(?P<LPAREN>\()' RPAREN = r'(?P<RPAREN>\))' WS = r'(?P<WS>\s+)' master_pat = re.compile('|'.join([NUM, PLUS, MINUS, TIMES, DIVIDE, LPAREN, RPAREN, WS])) # Tokenizer Token = collections.namedtuple('Token', ['type', 'value']) def generate_tokens(text): scanner = master_pat.scanner(text) for m in iter(scanner.match, None): tok = Token(m.lastgroup, m.group()) if tok.type != 'WS': yield tok # Parser class ExpressionEvaluator: ''' Implementation of a recursive descent parser. Each method implements a single grammar rule. Use the ._accept() method to test and accept the current lookahead token. Use the ._expect() method to exactly match and discard the next token on on the input (or raise a SyntaxError if it doesn't match). ''' def parse(self, text): self.tokens = generate_tokens(text) self.tok = None # Last symbol consumed self.nexttok = None # Next symbol tokenized self._advance() # Load first lookahead token return self.expr() def _advance(self): 'Advance one token ahead' self.tok, self.nexttok = self.nexttok, next(self.tokens, None) def _accept(self, toktype): 'Test and consume the next token if it matches toktype' if self.nexttok and self.nexttok.type == toktype: self._advance() return True else: return False def _expect(self, toktype): 'Consume next token if it matches toktype or raise SyntaxError' if not self._accept(toktype): raise SyntaxError('Expected ' + toktype) # Grammar rules follow def expr(self): "expression ::= term { ('+'|'-') term }*" exprval = self.term() while self._accept('PLUS') or self._accept('MINUS'): op = self.tok.type right = self.term() if op == 'PLUS': exprval += right elif op == 'MINUS': exprval -= right return exprval def term(self): "term ::= factor { ('*'|'/') factor }*" termval = self.factor() while self._accept('TIMES') or self._accept('DIVIDE'): op = self.tok.type right = self.factor() if op == 'TIMES': termval *= right elif op == 'DIVIDE': termval /= right return termval def factor(self): "factor ::= NUM | ( expr )" if self._accept('NUM'): return int(self.tok.value) elif self._accept('LPAREN'): exprval = self.expr() self._expect('RPAREN') return exprval else: raise SyntaxError('Expected NUMBER or LPAREN') def descent_parser(): e = ExpressionEvaluator() print(e.parse('2')) print(e.parse('2 + 3')) print(e.parse('2 + 3 * 4')) print(e.parse('2 + (3 + 4) * 5')) # print(e.parse('2 + (3 + * 4)')) # Traceback (most recent call last): # File "<stdin>", line 1, in <module> # File "exprparse.py", line 40, in parse # return self.expr() # File "exprparse.py", line 67, in expr # right = self.term() # File "exprparse.py", line 77, in term # termval = self.factor() # File "exprparse.py", line 93, in factor # exprval = self.expr() # File "exprparse.py", line 67, in expr # right = self.term() # File "exprparse.py", line 77, in term # termval = self.factor() # File "exprparse.py", line 97, in factor # raise SyntaxError("Expected NUMBER or LPAREN") # SyntaxError: Expected NUMBER or LPAREN if __name__ == '__main__': descent_parser()
討論
文本解析是一個很大的主題, 一般會占用學(xué)生學(xué)習(xí)編譯課程時剛開始的三周時間。 如果你在找尋關(guān)于語法,解析算法等相關(guān)的背景知識的話,你應(yīng)該去看一下編譯器書籍。 很顯然,關(guān)于這方面的內(nèi)容太多,不可能在這里全部展開。
盡管如此,編寫一個遞歸下降解析器的整體思路是比較簡單的。 開始的時候,你先獲得所有的語法規(guī)則,然后將其轉(zhuǎn)換為一個函數(shù)或者方法。 因此如果你的語法類似這樣:
expr ::= term { ('+'|'-') term }* term ::= factor { ('*'|'/') factor }* factor ::= '(' expr ')' | NUM
你應(yīng)該首先將它們轉(zhuǎn)換成一組像下面這樣的方法:
class ExpressionEvaluator: ... def expr(self): ... def term(self): ... def factor(self): ...
每個方法要完成的任務(wù)很簡單 - 它必須從左至右遍歷語法規(guī)則的每一部分,處理每個令牌。 從某種意義上講,方法的目的就是要么處理完語法規(guī)則,要么產(chǎn)生一個語法錯誤。 為了這樣做,需采用下面的這些實現(xiàn)方法:
- 如果規(guī)則中的下個符號是另外一個語法規(guī)則的名字(比如term或factor),就簡單的調(diào)用同名的方法即可。 這就是該算法中”下降”的由來 - 控制下降到另一個語法規(guī)則中去。 有時候規(guī)則會調(diào)用已經(jīng)執(zhí)行的方法(比如,在
factor ::= '('expr ')'
中對expr的調(diào)用)。 這就是算法中”遞歸”的由來。 - 如果規(guī)則中下一個符號是個特殊符號(比如(),你得查找下一個令牌并確認(rèn)是一個精確匹配)。 如果不匹配,就產(chǎn)生一個語法錯誤。這一節(jié)中的
_expect()
方法就是用來做這一步的。 - 如果規(guī)則中下一個符號為一些可能的選擇項(比如 + 或 -), 你必須對每一種可能情況檢查下一個令牌,只有當(dāng)它匹配一個的時候才能繼續(xù)。 這也是本節(jié)示例中
_accept()
方法的目的。 它相當(dāng)于_expect()方法的弱化版本,因為如果一個匹配找到了它會繼續(xù), 但是如果沒找到,它不會產(chǎn)生錯誤而是回滾(允許后續(xù)的檢查繼續(xù)進(jìn)行)。 - 對于有重復(fù)部分的規(guī)則(比如在規(guī)則表達(dá)式
::= term { ('+'|'-') term }*
中), 重復(fù)動作通過一個while循環(huán)來實現(xiàn)。 循環(huán)主體會收集或處理所有的重復(fù)元素直到?jīng)]有其他元素可以找到。 - 一旦整個語法規(guī)則處理完成,每個方法會返回某種結(jié)果給調(diào)用者。 這就是在解析過程中值是怎樣累加的原理。 比如,在表達(dá)式求值程序中,返回值代表表達(dá)式解析后的部分結(jié)果。 最后所有值會在最頂層的語法規(guī)則方法中合并起來。
盡管向你演示的是一個簡單的例子,遞歸下降解析器可以用來實現(xiàn)非常復(fù)雜的解析。 比如,Python語言本身就是通過一個遞歸下降解析器去解釋的。 如果你對此感興趣,你可以通過查看Python源碼文件Grammar/Grammar來研究下底層語法機(jī)制。 看完你會發(fā)現(xiàn),通過手動方式去實現(xiàn)一個解析器其實會有很多的局限和不足之處。
其中一個局限就是它們不能被用于包含任何左遞歸的語法規(guī)則中。比如,假如你需要翻譯下面這樣一個規(guī)則:
items ::= items ',' item | item
為了這樣做,你可能會像下面這樣使用 items()
方法:
def items(self): itemsval = self.items() if itemsval and self._accept(','): itemsval.append(self.item()) else: itemsval = [ self.item() ]
唯一的問題是這個方法根本不能工作,事實上,它會產(chǎn)生一個無限遞歸錯誤。
關(guān)于語法規(guī)則本身你可能也會碰到一些棘手的問題。 比如,你可能想知道下面這個簡單扼語法是否表述得當(dāng):
expr ::= factor { ('+'|'-'|'*'|'/') factor }* factor ::= '(' expression ')' | NUM
這個語法看上去沒啥問題,但是它卻不能察覺到標(biāo)準(zhǔn)四則運算中的運算符優(yōu)先級。 比如,表達(dá)式 "3 + 4 * 5"
會得到35而不是期望的23. 分開使用”expr”和”term”規(guī)則可以讓它正確的工作。
對于復(fù)雜的語法,你最好是選擇某個解析工具比如PyParsing或者是PLY。 下面是使用PLY來重寫表達(dá)式求值程序的代碼:
from ply.lex import lex from ply.yacc import yacc # Token list tokens = [ 'NUM', 'PLUS', 'MINUS', 'TIMES', 'DIVIDE', 'LPAREN', 'RPAREN' ] # Ignored characters t_ignore = ' \t\n' # Token specifications (as regexs) t_PLUS = r'\+' t_MINUS = r'-' t_TIMES = r'\*' t_DIVIDE = r'/' t_LPAREN = r'\(' t_RPAREN = r'\)' # Token processing functions def t_NUM(t): r'\d+' t.value = int(t.value) return t # Error handler def t_error(t): print('Bad character: {!r}'.format(t.value[0])) t.skip(1) # Build the lexer lexer = lex() # Grammar rules and handler functions def p_expr(p): ''' expr : expr PLUS term | expr MINUS term ''' if p[2] == '+': p[0] = p[1] + p[3] elif p[2] == '-': p[0] = p[1] - p[3] def p_expr_term(p): ''' expr : term ''' p[0] = p[1] def p_term(p): ''' term : term TIMES factor | term DIVIDE factor ''' if p[2] == '*': p[0] = p[1] * p[3] elif p[2] == '/': p[0] = p[1] / p[3] def p_term_factor(p): ''' term : factor ''' p[0] = p[1] def p_factor(p): ''' factor : NUM ''' p[0] = p[1] def p_factor_group(p): ''' factor : LPAREN expr RPAREN ''' p[0] = p[2] def p_error(p): print('Syntax error') parser = yacc()
這個程序中,所有代碼都位于一個比較高的層次。你只需要為令牌寫正則表達(dá)式和規(guī)則匹配時的高階處理函數(shù)即可。 而實際的運行解析器,接受令牌等等底層動作已經(jīng)被庫函數(shù)實現(xiàn)了。
下面是一個怎樣使用得到的解析對象的例子:
>>> parser.parse('2') 2 >>> parser.parse('2+3') 5 >>> parser.parse('2+(3+4)*5') 37 >>>
如果你想在你的編程過程中來點挑戰(zhàn)和刺激,編寫解析器和編譯器是個不錯的選擇。 再次,一本編譯器的書籍會包含很多底層的理論知識。不過很多好的資源也可以在網(wǎng)上找到。 Python自己的ast模塊也值得去看一下。
以上就是Python實現(xiàn)一個簡單的遞歸下降分析器的詳細(xì)內(nèi)容,更多關(guān)于Python實現(xiàn)遞歸下降分析器的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
python和C++共享內(nèi)存?zhèn)鬏攬D像的示例
這篇文章主要介紹了python和C++共享內(nèi)存?zhèn)鬏攬D像的示例,幫助大家利用python處理圖片,感興趣的朋友可以了解下2020-10-10Python如何讀寫二進(jìn)制數(shù)組數(shù)據(jù)
這篇文章主要介紹了Python如何讀寫二進(jìn)制數(shù)組數(shù)據(jù),文中講解非常細(xì)致,代碼幫助大家更好的理解和學(xué)習(xí),感興趣的朋友可以了解下2020-08-08