https://github.com/audier/DeepSpeechRecognition
基于transformor的拼音转汉字语言模型。简介该工程可以训练和测试transformor为基础搭建拼音转汉字的模型。功能类似于拼音输入法,如:输入:jin1 tian1 tian1 qi4 ru2 he2 得到:今天天气如何。请下载工程:Preparedata/text_lm.txt # 拼音+汉字格式:yi3 hou4 ni3 shi4 nan2 hai2 zi 以后你是男孩子lan2 zhou1 na3 you3 mai3 lu4 hu3 qi4 che1 de 兰州哪有买路虎
【NLP】Transformer架构解析1. 认识Transformer架构1.1 Transformer模型的作用1.2 Transformer总体架构图2. 输入部分实现2.1 文本嵌入层的作用2.2 位置编码器的作用
1. 认识Transformer架构
1.1 Transformer模型的作用
基于seq2seq架构的transformer模型可以完成NLP领域研究的典型任务, 如机器翻译, 文本生成等. 同时又可以构建预训练语言模型,用于不同任务的迁移学习.
在接下来的架构分析中, 我
前两篇文章分别介绍了利用中文拼音库生成基于Trie树的音节模型和将输入的字符串进行音节拆分,本篇文章主要介绍如何利用中文语料构建拼音语料模型及拼音转换中文.
二.构建拼音语料模型
先来看看拼音转中文效果,输入字符串"zhuanye",
打印print(Pinyin2Chinese().covert(‘zhuanye’))
思路:获取中文语料(来源可以从数据库或者静态文件,包括excel表和.txt表),然后将语料结巴进行分词,然后利用pypinyin工具将分词转换成拼音,用列表存储,最后写出二进
1.背景介绍
语音识别和语音生成是人工智能领域的两个重要研究方向,它们在现实生活中的应用也非常广泛。语音识别技术可以将语音信号转换为文本,从而实现人机交互、语音助手等功能;而语音生成技术则可以将文本转换为语音,实现文字到语音的转换,从而提供语音新闻、导航等服务。
在过去的几年里,深度学习技术呈现了快速发展的趋势,尤其是自然语言处理(NLP)领域的成果,如机器翻译、情感分析等,都取得了显著的进展...