本地大语言模型
Xliff Tool for Xcode从4.0起,引入了本地大模型。可以实现一系列新的功能。下面介绍一下本地大语言模型的安装。具体如何使用,请参考“最佳实践”。
本地大模型安装
Xliff Tool使用Ollama作为本地大语言模型的工具。Ollama可以加载多种大语言模型。可以使用brew进行安装,也可以直接从官网进行下载并安装。
brew安装
brew install ollama
注意:brew中存在两个不同的ollama,另一个在cask下。两个都具备ollama的基本功能。不过cask版还包含了一个独立的应用,能够在后台运行并且在系统桌面菜单显示一个常驻图标。我更推荐非cask版。
使用Ollama
安装好之后,必须得先启动Ollama,之后才能安装具体的模型。启动方式简单,运行命令:
ollama serve
建议使用这种方式运行Ollama,因为这样占有的资源最小。可以随时通过ctrl+c来终止Ollama的运行。
此时当前终端被Ollama占用。按cmd+n开启一个新的终端。
今后若想对Ollama进行调用,也必须先像这样启动Ollama,然后应用程序才能调用它。
模型安装
安装好之后,还需要安装对应的模型。选择模型有一下几点需要注意:
- 模型越大,调用时占用的内存越大。运行的也会越缓慢。但是越大的模型理论上会越准确。
- 7B及一下的模型,需要你有8GB的内存。13B的则需要16GB的内存。
- 并不是所有的模型都适合Xliff Tool的功能。用户可以先使用推荐的模型。然后在空闲时,自行尝试其它的模型。
- 安装支持断点续传,如果发现下载速度过慢。可以使用ctrl+c中断下载,然后按⬆️,再次执行安装命令,这样速度会重新快起来。
以neural-chat为例,安装的方式为:
ollama run neural-chat
安装好之后,会自动进入命令行的对话界面。输入“/bye”可以退出。
当通过Xliff Tool来调用Ollama时,你不需要自己运行模型,只需要通过
ollama serve
开启Ollama服务即可。
Copyright © 2017 ParusSoft.com