实用项目实用项目Ollama安装
JaronOllama
这里介绍两种使用llama3的方式
- 使用GitHub开源的OpenWebUI
- 尝试自己使用SpringAI
第一种是别人搭建好的,对ollama很适配,可以上传文件、图片、生成图片等等,当然前提是使用了具有其功能的llm
第二种是如果想自己创建一个项目,那么需要自己用SpringAI写代码,这里简单罗列出需要写的基础配置文件,及简单的Controller样例
ollama下载
ollama官网:https://ollama.com/
去ollama官网下载,安装后运行ollama run llama3
ollama运行端口:11434
OpenWebUI
用GitHub开源免费的项目作为llama3前端
OpenWebUI官网:https://openwebui.com/
docker 安装
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
安装完成后,通过http://localhost:3000访问OpenWebUI。
SpringAI操作ollama
1 2 3 4 5 6 7 8 9 10 11
| spring: application: name: ollama ai: ollama: base-url: http://localhost:11434 chat: options: model: llama3
|
controller样例
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
| @RestController public class OllamaController { @Resource private OllamaChatClient ollamaChatClient; @RequestMapping(value = "/ai/ollama") public Object ollama(@RequestParam(value = "msg") String msg) { String called = ollamaChatClient.call(msg); System.out.println(called); return called; } @RequestMapping(value = "/ai/ollama2") public Object ollama2(@RequestParam(value = "msg") String msg) { ChatResponse chatResponse = ollamaChatClient.call(new Prompt( msg, OllamaOptions.create() .withModel("llama3") .withTemperature(0.4F))); System.out.println(chatResponse.getResult().getOutput().getContent()); return chatResponse.getResult().getOutput().getContent(); } }
|