Fish-Speech的编译优化

我们都知道,Python的执行效率很低。 在我的一个数字人项目中,需要用到Fish-Speech,但据测试,在不进行预编译的情况下,RTX4080上Fish-Speech甚至每2秒生成1秒音频,这无法满足实时性要求。 我们使用编译优化来解决问题啦—— Tips:本文仅针对于Windows,Linux


大语言模型微调指南

之前我们Lora微调了Stable Diffusion,这次我们来调大语言模型(✪ω✪)。 此次微调的模型是llama-3-chinese-8b-instruct-v3。 微调大语言模型,对我来说是一个迟早要学习的东西(除非它被新技术取代了) 微调用到 peft 这个库,这是一个便捷且通用的Lora


Stable Diffusion 微调指南

据说Stable Diffusion 1.5 模型吗,十几张图就能调出来不错的效果。 现在实验室有16G的卡,可以尝试一下啦。( •̀ ω •́ )✧ 数据集准备 现在有强大的自动预处理,数据集的准备可以说是只要有图片就行了。 自动预处理 首先是准备用于微调的图片。 此处我拿之前用于三维重建的小车的


一种另类的大模型微调方法(越狱指南)

先声明,请勿用于非法用途,造成的一切后果自行承担。 道德高尚的大语言模型容不得缺德的问题。假如问了缺德的事情,大语言模型会毫不留情地拒绝你。 所以,接下来我们要解除大语言模型的这个限制。 本文用到的东西目前似乎并不是很常见,资料很难查。 原理 大语言模型越狱有很多方法,有通过特定提示词(奶奶漏洞)、


GPT-SoVITS

很久很久以前,我研究过一段时间的AI变声,那个时候技术还不成熟,效果也不怎么好。 以前也有测试过AI拟声,但效果十分有待提升 https://srcblog.ffeng123.win:23443/archives/80eca22c-0d43-4cc7-83e2-d140d4fb3db0</


通用知识图谱构建

知识图谱,在大语言模型出现之前就存在了,但是那个时候可能并不是很好构建,现在有了大语言模型,构建知识图谱的难度大大降低了。 知识图谱这个东西,可以拿来辅助大语言模型推理,可以展示给用户,显得系统很牛,为了降低以后的工作量,我要研究一个通用的知识图谱构建方法(老师的建议) 在此之前,我已经做过三个知识


ChatGPT初体验

OpenAI家有个叫ChatGPT的模型最近似乎火了。 我用尽九牛二虎之力,还是没有注册上,但是从同学那里借到了帐号。 使用体验 那叫一个震撼啊,感觉像是在和真人对话一样啊,但是对话只要和他沾上关系他就不断强调自己只是个机器人,不会造成危害。(好可疑的感觉) 它会清楚地记着对话的上下文。 可以问他一


MockingBird初体验

MockingBird ,一个专门拟声的AI项目。 很久一起我就想试一试了,今天就来尝试一波。 首先,我没有训练数据,所以不能训练,也不需要训练,有别人训练好的模型。 得到模型 别人训练好的模型在百度网盘上面,百度网盘P2P打开直接跑满带宽,很快就下完了。 在它下载的期间,我去看了看Readme,这


Novel AI 初体验

早就听说 Novel AI 了,画二次元图片的AI,今天我也来体验下。 首先是资源:50Gib的模型文件 我的电脑是跑不动的,我需要一张可以的显卡。 这样的显卡在哪里找呢?据我所知的,百度飞浆和Google Colab可以白嫖到算卡。 白嫖Google Colab 参考BV1Me4y1S7Fd上的教