前几天逛论坛看到有人介绍一个「轻小说机翻机器人」网站(https://books.fishhawk.top),将各种日文小说的机翻聚合了起来,也对接了「成为小说家吧」等几个日文小说网站,在上面直接粘贴原文链接就可以看到翻译,挺方便的。中日对照方面做得也不错,机翻搞错了可以马上检查原文。
然后通过这个网站,又发现了一个做得不错的日中翻译大模型:https://github.com/SakuraLLM/Sakura-13B-Galgame ,基于的是 llama.cpp,可以在 Nvidia、AMD、Apple 三家的显卡上跑起来,也可以用纯 CPU 运行,缺点是显存不够运行速度会很慢,算是解决了 OpenAI 和谐严重以及收费高的痛点。借着 Mac 统一内存优势,试着把 2bit 量化模型跑了起来,效果还不错,可惜没有大显存的 N 卡,不然就试试跑几个游戏看看了。