Python | os、jieba、lambda

2018-11-26  本文已影响0人  _LadyBug_

Life is short. You need Python.

我们的机器学习课和文本分析课的老师
(好吧是同一个老师)
一直坚持着一个信条
就是Project-Oriented Learning
我不知道这样的好处是什么
也许是做出来一个东西确实会很有成就感
但是
学习的过程真的很痛苦
尤其是
像我这样的笨蛋
而且还是paranoid的笨蛋
没有TA 我也就不愿意请教其他人

很痛苦


今天学了几个python的方法
权当mark一下加深记忆
免得像某人一样把去年实训的东西都忘掉了

os.walk()

os.walk(top[, topdown=True[, onerror=None[, followlinks=False]]])

好的这些语法格式我一向是看不懂的
总之传入1~4个参数

  1. top :你所要遍历的目录的地址
  2. (可选) topdown True,则优先遍历 top 目录,否则优先遍历 top 的子目录(默认为开启)
  3. (可选)onerror看不懂
  4. (可选)followlinks看不懂
    不管了反正我也只用了前两个
def read_files(root):
    texts = []
    for path, dirs, names in os.walk(".", topdown=False):
        for name in names:
            filename = os.path.join(path, name)
            if re.match(".* .txt", filename):  # 找到所有章节的txt文档
                with open(filename, "r", encoding='utf-8') as f:
                    lines = f.readlines()  # readlines()返回一个list
                    texts.extend(lines)  # 每个文件的文本存到list中

    return texts

以及我今天又被强迫症程序员diss了

jieba

https://github.com/fxsjy/jieba
jieba是一个强大的中文分词module

  • 基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图 (DAG)
  • 采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合
  • 对于未登录词,采用了基于汉字成词能力的 HMM 模型,使用了 Viterbi 算法

它的算法以后再说(mark住先),先用起来!
支持繁体分词支持自定义词典
这就已经很棒棒了

lambda

lambda就是匿名函数。
好的其实我并不是很懂
你们自己顾名思义去吧
(photo)
简单讲,就是没有具体名称的函数
允许快速快速定义单行函数
语法:
lambda [arg1 [, agr2,.....argn]] : expression
我今天用lambda时结合了一个过滤器,这是常见的用法。
word_tokens = list(filter(lambda token: token.isalpha(), tokens))
勉强看懂是说在tokens这个list的元素(字串)token里,只保留字符,把其他奇怪的符号剔除掉。emm我的表达能力真是不敢恭维

编码格式

这个真的好迷!
各种很迷的bug
等我搞懂了再来写!

collections

这个等我明天写完作业再来写!

嘻嘻,周末大家过得怎样?
明天又是新的一周咯。

上一篇 下一篇

猜你喜欢

热点阅读