llm-asr-tts/README.md

120 lines
4.5 KiB
Markdown
Raw Normal View History

2025-03-16 16:41:41 +00:00
# 环境配置详细教程 [B站](https://www.bilibili.com/video/BV1HucueQEJo/)
0. anaconda\ffmpeg安装
```
网上很多教程,自行搜索
```
```
SenseVoiceSmall模型下载
自动下载设置215行 model_dir = "iic/SenseVoiceSmall"
手动下载https://www.modelscope.cn/models/iic/SenseVoiceSmall/files
QWen模型下载
自动下载设置220行 model_name = "Qwen/Qwen2.5-1.5B-Instruct"开启科学上网可从huggingface自动下载
手动下载https://www.modelscope.cn/models/ 搜索QWen结果中下载显存可支持模型
```
1. 创建虚拟环境
```
conda create -n chatAudio python=3.10
conda activate chatAudio
```
2. 安装pytorch+cuda版本本地测试2.0以上版本均可这里安装torch=2.3.1+cuda11.8
```
pip install torch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118
其它适合自己电脑的torch+cuda版本可在torch官网查找
https://pytorch.org/get-started/previous-versions/
```
3. 简易版本安装不使用cosyvoice时依赖项较少
```
pip install edge-tts==6.1.17 funasr==1.1.12 ffmpeg==1.4 opencv-python==4.10.0.84 transformers==4.45.2 webrtcvad==2.0.10 qwen-vl-utils==0.0.8 pygame==2.6.1 langid==1.1.6 langdetect==1.0.9 accelerate==0.33.0 PyAudio==0.2.14
可执行验证:
python 13_SenceVoice_QWen2.5_edgeTTS_realTime.py
```
至此不调用cosyvoice作为合成的交互可成功调用了。
4. cosyvoice依赖库
```
大家反馈较多pynini、wetext安装方法
conda install -c conda-forge pynini=2.1.6
pip install WeTextProcessing --no-deps
```
5. cosyvoice其它依赖项安装如遇到权限问题导致安装失败以管理员形式打开终端
```
pip install HyperPyYAML==1.2.2 modelscope==1.15.0 onnxruntime==1.19.2 openai-whisper==20231117 importlib_resources==6.4.5 sounddevice==0.5.1 matcha-tts==0.0.7.0
可执行验证:
python 10_SenceVoice_QWen2.5_cosyVoice.py
```
# :sparkles: 241130-updata
## 新增声纹识别功能
设置固定声纹注册语音存储目录如目录为空则自动进入声纹注册模式。默认注册语音时长大于3秒可自定义一般而言时长越长声纹效果越稳定。
声纹模型采用阿里开源的CAM++其采用3D-Speaker中文数据训练符合中文对话需求
## 新增自由定义唤醒词功能
使用SenceVoice的语音识别能力实现将语音识别的汉字转为拼音进行匹配。将唤醒词/指令词设置为中文对应拼音可自由定制。15.0_SenceVoice_kws_CAM++.py中默认为'ni hao xiao qian'15.1_SenceVoice_kws_CAM++.py中默认为'zhan qi lai'[暗影君王实在太cool辣]
## 新增对话历史内容记忆功能
通过建立user、system历史队列实现。开启新一轮对话时首先获取历史记忆而后拼接新的输入指令。可自由定义最大历史长度默认为512。
对应脚本:
无历史记忆15.0_SenceVoice_kws_CAM++.py
有历史记忆15.1_SenceVoice_kws_CAM++.py
[演示demoB站] (https://www.bilibili.com/video/BV1Q6zpYpEgv)
Have fun! 😊
# :sparkles: 241123-updata
## 更新单模态自由打断语音交互
使用webrtcvad进行实时vad检测设置一个检测时间段=0.5s,有效语音激活率=40%每个检测chunk=20ms。也就是说500ms/20ms=25个检测段如果25*0.4=10个片段激活则该0.5秒为有效音,加入缓存。
可改进点使用模型VAD去除噪声干扰
13_SenceVoice_QWen2.5_edgeTTS_realTime.py
## 音视频多模态语音交互
基于以上逻辑替换QWen2.5-1.5B模型为QWen2-VL-2B可实现音视频多模态交互。模型具有两种输入格式图片/视频
14_SenceVoice_QWen2VL_edgeTTS_realTime.py
[演示demoB站] (https://www.bilibili.com/video/BV1uQBCYrEYL)
# :sparkles: 241027-语音交互大模型/SenceVoice-QWen2.5-TTS
## 框架
SenceVoice-QWen2.5-CosyVoice搭建
此工程主代码来于[CosyVoice] (https://github.com/FunAudioLLM/CosyVoice)
在CosyVoice基础上添加[SenceVoice] (https://github.com/modelscope/FunASR) 作为语音识别模型
添加[QWwn2.5] (https://github.com/QwenLM/Qwen2.5) 作为大语言模型进行对话理解
## 3种语音合成方法
CoosyVoice推理速度慢严重影响对话实时性额外添加pyttsx3和edgeTTS
EdgeTTS实验过程出现链接错误问题升级版本至6.1.17解决,无需科学上网
All dependencies are listed in requirements.txt, the interactive inference scripts are 10/11/12_SenceVoice_QWen2.5_xxx.py.
Have fun! 😊