BNF 是巴科斯范式, 英语:Backus Normal Form 的缩写, 也被称作 巴科斯-诺尔范式, 英语: Backus–Naur Form. Backus 和 Naur 是两位作者的名字. 必须承认这是一项伟大的发明, BNF 开创了描述计算机语言语法的符号集形式. 如果您还不了解 BNF, 需要先 Google 一下. 随时间推移逐渐衍生出一些扩展版本, 这里直接列举几条 ABNF RFC5234 定义的文法规则.
PS: 后续代码实现部分, 早期的代码思路不够精简, 在现实中很难应用. 后期又做了纯规则的实现, 请读者选择性阅读, 以免浪费您宝贵的时间
; 注释以分号开始
name = elements ; name 规则名, elements 是一个或多个规则名, 本例只是示意
command = "command string" ; 字符串在一对双引号中, 大小写不敏感
rulename = %d97 %d98 %d99 ; 值表示 "abc", 大小写敏感, 中间的空格是 ABNF 规则定界符
foo = %x61 ; a, 上面的 "%d" 开头表示用十进制, "%x" 表示用十六进制
bar = %x62 ; b, "%x62" 等同 "%d98"
CRLF = %d13.10 ; 值点连接, 等同 "%d13 %d10" 或者 "%x0D %x0A"
mumble = foo bar foo ; Concatenation 级联, 上面定义了 foo, bar, 等同区分大小写的 "aba"
ruleset = alt1 / alt2 ; Alternative 替代, 匹配一个就行, 以 "/" 分界
ruleset =/ alt3 ; 增量替代以 "=/" 指示
ruleset = alt1 / alt2 / alt3 ; 等同于上面两行
ruleset = alt1 / ; 你也可以分成多行写
alt2 /
alt3
DIGIT = %x30-39 ; Value range 值范围, 用 "-" 连接, 等同下面
DIGIT = "0" / "1" / "2" / "3" / "4" / "5" / "6" / "7" / "8" / "9"
charline = %x0D.0A %x20-7E %x0D.0A ; 值点连接和值范围组合的例子
seqGroup = elem (foo / bar) blat ; Grouping 分组, 一对圆括号包裹, 与下面的含义完全不同
seqGroup = elem foo / bar blat ; 这是两个替代, 上面是三个级联
integer = 1*DIGIT ; Repetition 重复, 1 至 无穷 个 DIGIT
some = *1DIGIT ; 0 至 1 个 DIGIT
someAs = 0*1DIGIT ; 等同上一行
year = 1*4DIGIT ; 1 至 4 个 DIGIT
foo = *bar ; 0 至 无穷 个 bar
baz = 3foo ; 3 次重复 foo, 等同 3*3foo
number = 1*DIGIT ["." 1*DIGIT] ; Optional 可选规则, 用中括号包裹, 等同下面两种写法
number = 1*DIGIT *1("." 1*DIGIT)
number = 1*DIGIT 0*1("." 1*DIGIT)
foobar = <foo bar is foo bar> baz ; prose-val 用尖括号括起来, 值就可以包含空格和VCHAR
; 范围是 *(%x20-3D / %x3F-7E)
上面的描述用的也是 ABNF, 事实上这些文字就源自 RFC5234 规范. 级联规则就是一个顺序匹配的序列, 好比 Seq 顺序规则或者叫 And 规则. 替代好比 Or 规则或者叫 Any 规则.
现在我们尝试一下四则运算表达式的 ABNF 写法. 我们从人脑运算方式逐步推演出正确的写法. 周知四则运算会包含数字和运算符还有括号.
; 错误写法一
; Expr 表示要解决的问题, 四则运算规则
Expr = Num / ; Num 表示数字, 仅仅一个数字也可以构成Expr
Num Op Expr / ; Op 运算符
"(" Expr ")" / ; 括号会改变 Expr 运算优先级
Expr Op Expr ; 最复杂的情况
Op = "+" / "-" / "*" / "/" ; 运算符的定义
Num = 1*(0-9) ; 最简单的正整数定义
上面的写法模拟人脑做四则运算的习惯, 很明显绝大多数解析器都无法使用这个规则. 因为出现了左递归. "最复杂的情况" 这一行中 Expr 出现在规则的最左边, 这将导致解析器递归, 造成死循环. 虽然可以把解析器设计的复杂一些, 解决左递归, 但这会使解析器很复杂, 并造成效率低下, 时间复杂度陡增, 所以通常要求写规则时就消除左递归.
继续分析推演. 消除左递归一般通过因式分解(factor)或者引入新的规则条款(terms)解决. 通过 factor 或者 term 解除左递归发生的可能性, 好比多绕几个圈子, 多给解析器几条路, 让解析器绕过死循环的路径. 下面加上了 Repetition 重复规则. 我们先按照人脑思维, 乘法除法优先的顺序来写.
; 错误写法二
Expr = Term *Mul / ; Mul 是乘法, *Mul 表示可能有或没有, Term 就是要绕的圈子了.
Term *Quo ; 除法和乘法一样, Term 这个圈子其实表示的还是 Expr.
Term = Factor *Add / ; 一个圈子明显不行, 再绕个圈子 Factor,
Factor *Sub ; 这两行描述加减法, 逻辑都没错吧, 都是可能有, 也可能没有
Factor = Num / ; 绕再多圈子总是要回来的, 数字总要有吧
"(" Expr ")" ; 括号的运算总要有吧
Add = "+" Term ; 一旦出现运算符, 后面一定会有后续的表达式吧
Sub = "-" Term
Mul = "*" Factor
Quo = "/" Factor
Num = 1*(0-9)
看上去会发生左递归么? 不会, 怎么绕你都不会死循环, 因为 Factor 的第一条规则 Num , 给绕圈圈一个结束的机会. 这个叫终结符. 但是这个写法是错误的.
你可以在脑子里模拟下 1+2-3
, 到 -
号的时候就解析不下去了. 1+2
被
Term = Factor *Add
匹配了, 但是后面还有-
号, 被匹配的是加法规则
Add = "+" Term ; 最后一个又回到 Term
但是 Term 无法匹配减号, Term 推演规则中没有以减号开头的. 你说重头来不就行了? 不行, 解析器执行的规则是找到一条路可以一直走下去, 如果走不动了, 就表示这条规则匹配完成了, 或者失败了. 减号来的时候, 如果假设解析器认为 1+2
已经走完, 减号来的时候还是要从 Expr 开始, 不能直接从 Sub 开始, 开始只能有一个, 从 Expr 开始推导不出首次就匹配 "-" 号的. 所以 1+2-3
没有走完, 解析进行不下去了.
那上面的问题出在哪里呢? 问题在:
终结符在推导循环中不能首次匹配
问题的逻辑是:
可以穷举开始和结尾, 不能穷举中间过程.
解决方法是循环或者递归:
在循环和递归中已经没有明确的开始,头尾相接就没有头尾了,没有头尾也意味能一直绕下去
综合这三句话, 我们解决问题的方法也就出来了:
1. 引入Term, Factor 消除左递归
2. 要给终结符在循环中首次匹配的机会或者说不阻断循环的进行
终结符就是推导循环到了最后, 不包含推导循环中的其他规则名. 再来符号就是新的, 要重头开始. 有终结但无法继续重头开始, 圈子绕不下去了.
继续推演, 我们先确定终结符. 我们用个小技巧, 按优先级合并运算符.
; 正确写法
Expr = Term *Sum ; 继续绕圈子, *Sum 有或者没有, 先写求和是有原因的
Term = Factor *Mul ; 再写乘积, *Sum 不匹配, 就尝试乘积
Sum = SumOp Term ; 求和的运算, 有运算符必定要有后续表达式
Mul = MulOp Factor ; 乘积的运算,
Factor = Num / ; 引向终结
"(" Expr ")" ; 括号永远都在
Num = 1*(0-9) ; 数字, 这可以是独立的终结符
SumOp = "+" / "-" ; 加或者减, 可以叫做求和, 小技巧
MulOp = "*" / "/" ; 乘或者除, 可以叫做乘积
把这两种写法左右排列, 看的更清楚
; 错误写法 ; 正确写法
Expr = Term *Mul / ; Expr = Term *Sum ; 蛇头
Term *Quo ; Term = Factor *Mul ; 蛇头
Term = Factor *Add / ; Sum = SumOp Term ; 咬蛇尾
Factor *Sub ; Mul = MulOp Factor ; 咬蛇尾
Factor = Num / ; Factor = Num /
"(" Expr ")" ; "(" Expr ")"
Add = "+" Term ; SumOp = "+" /
Sub = "-" Term ; "-"
Mul = "*" Factor ; MulOp = "*" /
Quo = "/" Factor ; "/"
Num = 1*(0-9) ; Num = 1*(0-9)
你应该发现了, 主要区别是: 运算符和后续的 Expr 的结合处理方式不同. 左侧的规则是: (数字,运算符,数字) 然后还想找 (数字,运算符,数字). 右侧的规则是: (数字,运算符) 然后继续 (数字,运算符), 最后找到终结.
左侧规划了一条既定的有终结路线, 走不了几步就终结了. 蛇头没咬到蛇尾, 咬到七寸了. 右侧规划了一条蛇头咬蛇尾的循环路线, 循环中所有的规则名都有机会匹配.
这是早期思路所写的代码, 事实上我自己用起来也很不舒服, 也一直没有放出来, 就当做失败的例子吧
ABNF 具有很强的表达能力, 这里以 ABNF 为基础分析要分离出的规则元素. 终结符和非终结符, 可以这样描述
- atom 终结符, 就是个对输入字符进行判断的函数
- term 非终结符, 可能有多个或多层 term/atom 组合, 也可用 group 这个词
- factor 抽象接口, term 和 atom 的共性接口, 代码实现需要抽象接口
用 group 替换 term 在语义上也是成立的, 一个独立的 term 也可以看作只有一项规则元素的 group.
元素关系可以分
- Concatenation 级联匹配
- Alternation 替代匹配
atom 可以看作只有一项的级联, group 需要选择两者之一. 那么 group 需要可以增加规则元素的接口
- Add(factor)
在做解析的时候常采用循环的方法, 某个循环结束后会产生两个状态
- ok 解析是否成功
- end 解析是否结束
任何时候遇到 end, 无论处于那一级循环中, 都要终止解析. 如果不是 end, 那么依据元素关系和解析是否成功进行判断, 决定尝试匹配下一个规则元素或者返回 !ok, !end.
其他
- 给 term/group, atom/factor 命名或设定 id
- 设置 term/group, atom/factor 的重复属性 repeat.
综合上述分析大致的接口设计如下
type Factor interface {
/**
每个 Factor 都有一个唯一规则 ID
Grammar 的 id 固定为 0.
Atom, Group 自动生成或者设定. 自动生成的 ID 为负数.
*/
Id() int
/**
返回 Factor 的风格. 常量 KGrammar / KGroup / KFactor.
这里简单用 int 类型区分
*/
Kind() int
/**
Mode 返回 Factor 所使用的匹配模式
Atom 总是返回常量 MConcatenation.
*/
Mode() int
/**
匹配脚本
参数: Scanner 是个 rune 扫描器, Record 用于记录解析过程.
返回值:
ok 是否匹配成
end 是否终止匹配, 事实上由 Record 决定是否终止匹配
*/
Process(script Scanner, rec Record) (ok, end bool)
}
// 语法接口也基于 Factor
type Grammar interface {
Factor
/**
生成一个 Term 过渡对象.
初始重复 1 次, 1*1.
初始匹配模式为 MConcatenation.
参数 id 如果 <= 0 或者发生重复, 那么自动生成负数 id.
*/
Term(id int) Term
// 为 Grammar.Process 设置最初规则.
Start(rule ...Factor) Grammar
// 设置为 Concatenation 匹配模式
Concatenation() Grammar
// 设置为 Alternation 匹配模式
Alternation() Grammar
}
/**
term 是个中间件, 最终要转化为 Group/Factor
*/
type Term interface {
Factor
// 为 Term 命名. 不检查名称唯一性.
Named(string) Term
/**
设置 Repeat, 参数 a, b 对应 ABNF 的 repeat 定义 a*b.
如果 b < a, 把 b 作为 0 处理.
*/
Repeat(a, b uint) Term
// 转为 Group
Group() Group
// 由 Atom 转为 Factor
Atom(atom Atom) Factor
}
/**
Group 具有 Add 方法
*/
type Group interface {
Factor
// 设置为 Concatenation 匹配模式
Concatenation() Group
// 设置为 Alternation 匹配模式
Alternation() Group
/**
添加一组规则.
如果没有通过检查返回 nil
*/
Add(rule ...Factor) Group
}
从中可以看出, Term 是个过渡接口, 设计这个的原因是:
ABNF 文法中的规则定义和程序中的类型定相似, 次序无所谓, 只要有定义. 很明显实现解析器的时候, 这些元素是以变量的形式存在的, 我们需要先生成变量, 然后在进行关系组合. 笔者实现了一个
// 丑陋的 Term 表现四则运算
// g 是个 Grammar 对象, 起个名字叫 Arithmetic
g := New("Arithmetic")
// 先生成规则元素, Atom 的参数 id 是预定义的常量
expr := g.Term().Named("Expr").Group()
end := g.Term().Named("EOF").Atom(IdEof, ItsEOF)
num := g.Term().Named("Num").Atom(NUM, ItsNum)
// GenLiteral 是个辅助函数函数, 生成字符串匹配 Atom
C := g.Term().Named("(").Atom(LPAREN, GenLiteral(`(`, nil))
D := g.Term().Named(")").Atom(RPAREN, GenLiteral(`)`, nil))
term := g.Term().Named("Term").Group()
sum := g.Term().Zero().Named("Sum").Group()
factor := g.Term().Named("Factor").Group().Alternation()
mul := g.Term().Zero().Named("Mul").Group()
sumOp := g.Term().Named("SumOp").Group().Add(
g.Term().Named("+").Atom(ADD, GenLiteral(`+`, nil)),
g.Term().Named("-").Atom(SUB, GenLiteral(`-`, nil)),
).Alternation()
mulOp := g.Term().Named("MulOp").Group().Add(
g.Term().Named("*").Atom(MUL, GenLiteral(`*`, nil)),
g.Term().Named("/").Atom(QUO, GenLiteral(`/`, nil)),
).Alternation()
nested := g.Term().Named("Nested").Group().Add(C, expr, D)
// 组合规则元素
g.Start(end, expr)
expr.Add(term, sum)
term.Add(factor, mul)
sum.Add(sumOp, term)
mul.Add(mulOp, factor)
factor.Add(num, nested)
// 这里省略了 script 和 rec 的生成
g.Process(script, rec)
Term 的出现, 虽然逻辑上完整了, 代码写出来看上去很丑陋. 看来只有通过辅助函数简化代码了.
连续两章学习解析器, 事实上笔者自己尝试实现了一个基于 ABNF 的解析器雏形. 然而由于采用了递归的匹配方式, 最终的测试结果让人非常沮丧, 和 go 官方提供的 json 包对比解析速度慢几十倍. go 官方的 json 包是纯手工代码实现的. 采用大家常常听到的先词法分析后语法分析的方法, 事实摆在眼前, 这种手工的方法真的是最快的. 同样的方法我们在 go 的标准库中可以找到多处, 各种教课书中讲的解析相关知识根本就没用上, 效率有目共睹. 直接看相关源代码就能了解细节.
手工代码构造的先词法分析后语法分析的解析器是最快的
Zxx 是很偶然的一次 Q 群聊天玩笑的产物, 到目前为止这依然是个设想(玩笑). 好在新的 zxx abnf 产生了. 这次尝试了另外的思路, 到目前为止感觉还不错.
如前文所述, 可以从 ABNF 规范中抽离出独立的匹配规则, 下文用 R 代表一个规则.
- Zero 规则对应 R* 匹配零次或多次
- Option 规则对应 R{0,1} 匹配零次或一次
- More 规则对应 R{1,} 匹配一次或多次
- Any 规则对应多个规则匹配任意一个
- Seq 规则对应多个规则被顺序匹配
- Term 所有规则是有 Term 组成的.
这些只是基本的匹配规则逻辑. 毫无疑问, 文法解析是从一个字节一个字节进行的, 前文的实现也是这么思考的. 现在换个角度考虑问题:
字符串也好, 叫做 Token 也罢, 真正要做的是判断一个 Token 是否满某个条件.
我们知道解析的最小单位是 Token, 我们个 Token 加一个成员方法
// Has 返回 token 等于 tok 或者包括 tok
func (token Token) Has(tok Token) bool
// 这里截取部分 Token 定义
const (
EOF Token = iota
Type // 分类标记
// 预定义类型
BYTE
STRING
UINT
INT
)
那么 Type.Has(INT) 的值就为 true.
即 Token 的 Has 方法为前述的 ABNF 规则提供了最底层的判断. Token 的类型不再重要, Has 保证了一切. 现实中可从扫描器得到 Token. 而 zxx abnf 只关心相关的规则定义.
列举下相关定义, 有些注释省略, 完整代码在 zxx abnf:
// Flag 表示规则匹配 Token 后的状态
type Flag int
const (
Matched Flag = 1 << iota // 匹配成功, 消耗掉一个 Token
Standing // 规则成立, 可以继续匹配 Token
Finished // 规则完整, 不再接受匹配 Token
// 下列标记由算法维护, Match 返回值不应该包含这些标记.
Handing // 正在进行处理中(Match), 可用来检查发生递归
Cloning // 正在进行克隆
Custom // 通用标记位, 包括更高的位都由 Match 自定义用途,
)
type Rule interface {
// Match 返回匹配 tok 的状态标记. 实现必须遵守以下约定:
//
// 返回值为下列之一:
//
// 0
// Matched
// Matched|Standing
// Matched|Finished
// Finished
//
// 自动重置:
//
// 规则状态为 0, Finished, Matched|Finished 时自动重置, 可接受新的匹配.
//
// EOF 重置: 当最终状态为
//
// Matched 最终状态是不确定完整匹配.
// Matched|Standing 最终状态是完整匹配.
//
// 时使用 Match(EOF) 重置规则并返回 Finished, 其它状态不应该使用 EOF 来重置.
//
// 末尾完整测试:
//
// 类似 Seq(Term(XX),Option(YY),Option(ZZ)) 规则, 单个 XX 也是合法的,
// 但是由于 Option 的原因, 匹配单个 XX 的状态为 Matched,
// 因此再匹配一个不可能出现的 Token, 可以测试规则是否完整.
//
Match(tok Token) Flag
// Bind 应只在递归嵌套规则变量时使用, 先声明规则变量后绑定规则.
// 其他情况都不应该使用 Bind.
Bind(Rule)
// Clone 返回克隆规则, 这是深度克隆, 但不含递归.
// 递归规则在 Match 中通过判断 Handing 标记及时建立的.
Clone() Rule
// IsOption 返回该规则是否为可选规则.
// 事实上除了 Option 是明确的可选规则外, 其它组合可能产生事实上的可选规则.
IsOption() bool
}
// Term 用来包装 Token
// Term 产生任一 Token 匹配规则. Match 方法返回值为:
//
// 0
// Matched | Finished
// Finished 当 EOF 重置或者 tok == nil
//
func Term(tok ...Token) Rule
func Option(rule Rule) Rule
func Once(rule Rule) Rule
// More 产生重复匹配规则.
// rule 必须初次匹配成功, 然后当 rule 匹配结果为 0, Finished 时尝试 sep 匹配,
// 如果 sep 匹配成功则继续匹配 rule.
//
func More(rule, sep Rule) Rule
// Any 产生任一匹配规则.
// 不要用 Any(rule, Term()) 替代 Option, 那会让 IsOption() 不可靠.
func Any(rule ...Rule) Rule
// Seq 产生顺序匹配规则
func Seq(rule ...Rule) Rule
你可能注意到其中没有 Zero 规则, 因为不需要它, Flag 的 Finished 隐含的兼容了 Zero 规则. 只有 Flag(0) 才表示失败, Finished 虽然表示 Token 未被匹配, 但是规则是成立的, Token 由后续规则继续匹配好了.
先写这么多, 就 5 个规则, 写多了反而添乱
周知生成 AST 是非常必要的, 这为后续的分析处理提供了基础. 上节中的方案至少有以下几个问题没有解决
- 运算符优先级
- 生成 AST
笔者很幸运的找到通过扩展 ABNF 的语法直接生成 AST 的方案, 命名为 ABNFA.
扩展: ABNFA 的引用写法称作 Action
ref-method-key-type-more
语义:
当 ref 匹配的后生成 type 类型节点
用 method 处理生成的节点, 比如描述注释, 分组, 数组, 二元运算等
生成的节点保存在父节点的 key 属性中
more 留给插件使用
四则运算的 ABNFA 描述: 留意 '-' 开始的部分, 详细语义参见 ABNFA
Exp = (Num- / group-alone) ; (Num节点 | 独立的分组) [可选二元运算]
[Binary-infix-left-] ; 前面生成的节点保存到二元节点的 left
group = "(" Exp ")" ; 圆括号分组
Binary = operator-binary-op Exp--right ; 由二元运算符 op 和 right(Exp) 属性组成
operator= ("+" / "-") / ; 二元运算符约定写法
("*" / "/") ; 优先级由低到高
Num = DIGITS-leaf ; 由 DIGITS 生成的叶子节点
DIGITS = 1*(%x30-39) ; [1-9]+
文本 1-2*3
经匹配后生成这样的 ASON 字符串
Binary[Num~left"1",~op"-",Binary~right[Num~left"2",~op"*",Num~right"3"]]
用 JavaScript 描述生成 AST 的代码可以是:
let ast = Binary({
left: Num("1"),
op: "-",
right: Binary({
left: Num("2"),
op:"*",
right: Num("3")
})
})
提示:
ASON 是生成 AST 步骤的序列化描述
二元运算节点必须使用 'infix' 方法, 而其运算符必须使用 'binary' 方法
通常 AST 中不需要包含分隔符号(空格之类), 分组符号(表达式中的括号)等信息
工具链生成可序列化数据, 其它语言很容易实现对接, 甚至生成对应代码