Python 实现中文数字转 int

前几天 USTC  的群里,尘光大佬出了这样一道题:

请实现一个函数,输入是string类型的中文数字,输出是其对应的Int值(可不考虑溢出问题,简单地认为int可存放无穷大)。例如:

输入 –> 输出
一百零一 –> 101
廿二 –> 22
二零一二 –> 2012
二十万五百亿三千零八万一千零卅五 –> 20050030081035

注:需要考虑的中文数字包括:零一二三四五六七八九十廿卅百千万亿。

思考了一下感觉这个问题应该不是很复杂,大致思路就是从左往右处理中文然后给每个数字确定数量级,最后再加起来。有了思路就码代码,然后又找 bug 跑测试,修修补补最后的代码长这个样子:

当然我的实现肯定不是最好的,像 二百五、一千二 这种较为口语化的表达就无法正常处理,群里有的大佬写出来的就能正确处理。甚至还有大佬用 scala 十行就写了一个。。。这种只能膜拜了。。。

后面附上一些测试样例,你要是想自己试一试写出来了的话可以用这些来跑一跑~

[
('一', 1),
('一十', 10),
('廿', 20),
('廿二', 22),
('三百一十', 310),
('一百二十三', 123),
('一千零一万一千', 10011000),
('一千两百三十四万五千六百七十八亿九千零一十二万三千四百五十六', 1234567890123456),
('一千零一万零一百零一', 10010101),
('二零一二', 2012),
('四万亿', 4000000000000),
('一', 1),
('一十', 10),
('一百', 100),
('一千', 1000),
('一万', 10000),
('一十万', 100000),
('一百万', 1000000),
('一千万', 10000000),
('一亿', 100000000),
('一十亿', 1000000000),
('一百亿', 10000000000),
('一千亿', 100000000000),
('一万亿', 1000000000000),
('一十万亿', 10000000000000),
('一百万亿', 100000000000000),
('一千万亿', 1000000000000000),
## 十前面不跟数词,特例,建议支持,不做强行要求
('十', 10),
('十万', 100000),
('两千一百十二', 2112),
('十万亿零十万零十', 10000000100010),
## 加分项
('一千二', 1200),
('两百一', 210),
('四万万', 400000000),
]