NgCafai 2020-01-15
本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。
专注NLP的强大团队抱抱脸(hugging face)又发新资源!这一次是帮助NLP过程中,词语切分(tokenization)更快的Tokenizers。
只要20秒就能编码1GB文本,适用Rust、Python和Node.js,已经在GitHub上获得了800多星。
前不久,这个团队也凭借自己的技术实力获得了1500万美元的天使投资。
在NLP模型训练中,词语标记和切分往往是一个瓶颈。Tokenizer能够训练新的词汇,并且进行标记。
功能多样:适用于BPE/byte-level-BPE/WordPiece/SentencePiece各种NLP处理模型。
可以完成所有的预处理:截断(Truncate)、填补(Pad)、添加模型需要的特殊标记。
速度超级快:只需要20秒就可以在CPU上标记1GB的文本。
目前适用三种编程语言:Rust/Python/Node.js
github的资源页面上提供了在Python上使用Tokenizers的示例,进行简单的设置就可以使用:
也可以用Tokenizers进行新词训练:
虽然目前只可用于三种语言Python、JS、Rust,抱抱脸团队表示,将来会继续升级以适用更多~
抱抱脸团队是一个创业团队。他们的Transformers是github上最火的NLP项目,已经获得了20K星。
作为专注于自然语言处理的创业公司,他们的目标是开发一个可以使用文字、照片、表情包的聊天机器人,名字叫做social AI 。
目前已经经过了三轮融资,共2000万美元。其中,在2019年底的A轮融资中,公司获得了1500万美元,并打算将员工增加两倍。