从 AI 大模型上手,学会如何使用 AI 大模型以及通过编程调用 AI 大模型。
具体内容包括:
友情提示:由于 AI 的更新速度飞快,随着平台 / 工具 / 技术 / 软件的更新,教程的部分细节可能会失效,所以请大家重点学习思路和方法,不要因为实操和教程不一致就过于担心,而是要学会自己阅读官方文档并查阅资料,多锻炼自己解决问题的能力。
AI 大模型是指具有超大规模参数(通常为数十亿到数万亿)的深度学习模型,通过对大规模数据的训练,能够理解、生成人类语言,处理图像、音频等多种模态数据,并展示出强大的推理和创作能力。
大模型的强大之处在于它的 涌现能力 —— 随着模型参数量和训练数据量的增加,模型会展现出训练过程中未明确赋予的新能力,比如逻辑推理、代码编写、多步骤问题解决等。
大模型百花齐放,举些例子:
OpenAI
Anthropic
Meta
国内大模型
了解 AI 大模型的分类有助于我们进行大模型的技术选型,可以从模态、开源性、规模、用途等角度进行划分。
单模态模型:仅处理单一类型的数据,如纯文本(早期的 GPT-3)
多模态模型:能够处理多种类型的信息
文本 + 图像:GPT-4V、Gemini、Claude 3
文本 + 音频 + 视频:GPT-4o
闭源模型:不公开模型权重和训练方法
代表:GPT-4、Claude、Gemini
特点:通常通过 API 访问,付费使用
开源模型:公开模型权重,允许下载和自行部署
代表:Llama 系列、Mistral、Falcon
特点:可以本地部署,自由调整,但通常性能略逊于同等规模闭源模型
超大规模模型:参数量在数千亿到数万亿
代表:GPT-4 (1.76T 参数)
特点:能力强大,但需要大量计算资源
中小规模模型:参数量在几十亿到几百亿
代表:Llama 3 (70B 参数)、Mistral 7B
特点:能在较普通的硬件上运行,适合特定任务的精调
通用模型:能处理广泛的任务
代表:GPT-4、Claude 3、Gemini
特定领域模型:针对特定领域优化
医疗:Med-PaLM 2
代码:CodeLlama、StarCoder
科学:Galactica
作为开发者,不需要深入了解大模型的实现原理(如 Transformer 架构、注意力机制或训练细节),而应该专注于:
1)如何选择适合的 AI 大模型?
2)如何有效利用 AI?
3)了解模型能力边界
除了上面这些之外,还有个很现实的问题,就是要学习 AI 大模型相关的面试题,不过这块鱼皮已经帮大家拿捏了,我们的程序员面试刷题神器面试鸭搞了个 AI 大模型面试题库,建议没事就阅读一些题目来学习学习。
而且由于 AI 技术日新月异,建议大家平时多关注 AI 相关的资讯动态,比如 鱼皮开源的 AI 知识库,汇总了热门的 AI 大模型和工具,比如 Deepseek 使用指南、提示词技巧分享、知识干货、应用场景、AI 变现、行业资讯、教程资源等一系列内容,帮助你快速掌握 AI 技术,走在时代前沿。
在选择大模型时,可以关注以下几个维度,这里提供给大家一个对比表格,无需记忆,要用到的时候参考一下即可。
| 维度类别 | 具体评估点 | 说明 |
|---|---|---|
| 功能支持维度 | 多模态能力 | • 纯文本处理 • 图像理解(GPT-4V、Gemini)• 音频 / 视频处理(GPT-4o)• 代码生成与理解(CodeLlama) |
| 工具使用能力 | • 函数调用支持 • 工具集成能力 • 外部 API 连接能力 | |
| 上下文窗口大小 | • 输入上下文长度(4K 至 128K tokens)• 长文档处理能力 | |
| 指令遵循能力 | • 复杂指令处理能力 • 多步骤任务执行能力 • 回答格式控制能力 | |
| 性能指标维度 | 准确性 | • 知识准确度 • 推理能力水平 • 幻觉倾向性 |
| 响应质量 | • 输出流畅性与连贯性 • 回答相关性与深度 • 语言表达自然度 | |
| 知识时效性 | • 知识截止日期 • 更新频率 | |
| 部署与集成维度 | 部署方式 | • 云 API服务 • 本地部署可能性 • 私有云部署支持 |
| API 接口 | • 接口稳定性与可靠性 • SDK 支持情况 • 开发框架集成 | |
| 并发处理能力 | • 请求吞吐量 • 并发请求处理能力 • 服务水平协议 (SLA) 保障 | |
| 商业与合规维度 | 成本效益 | • API 调用价格 • 批量调用折扣 • 计算资源成本 |
| 数据安全与隐私 | • 数据使用政策 • 是否支持不保存用户数据 • 企业级安全合规 | |
| 法律合规性 | • 地区可用性 • 版权与知识产权问题 • 内容安全审查机制 | |
| 生态与支持维度 | 社区支持 | • 开发者社区活跃度 • 问题解决资源丰富度 • 第三方扩展与工具 |
| 文档完善度 | • API 文档质量 • 示例代码丰富度 • 最佳实践指南 | |
| 技术支持 | • 官方支持渠道 • 响应时间 • 企业级支持选项 |
其中,对大多数开发者来说,更关注的是 准确度 + 功能支持 + 性能 + 成本。
作为开发者,我们经常要通过开发框架来让程序对接大模型,因此可以通过一些开发框架的官方文档来快速了解和对比不同的大模型的功能支持,比如:
在实际开发过程中,我们主要有 2 种途径来使用 AI 大模型,分别是云服务和自部署,各有优缺。
直接使用其他云服务商在云端已部署好的大模型服务,无需自己考虑基础设施(比如服务器、GPU 算力),特点如下:
开发者自行在本地或私有云环境部署开源大模型,特点如下:
对于个人开发者,选用云服务就够了,不建议自己本地部署大模型,资源和维护成本太高了;对于特定业务领域的、考虑到数据安全性的企业,适合自部署。
通过云服务商提供的 AI 应用平台来使用 AI 大模型。
以 阿里云百炼 为例,这是一站式的大模型开发及应用构建平台,它提供了从模型调用到应用构建的全流程支持。
不论是开发者还是业务人员,都可以通过简单的界面操作,在 5 分钟内开发出一款大模型应用,或在几小时内训练出一个专属模型,从而将更多精力专注于应用创新。
此外,还提供了知识库管理、应用评测、应用观测等功能,能够帮企业快速构建智能客服等应用。
大家在使用阿里云百炼产品时,可能会看到另外一个产品 —— 模型服务灵积(DashScope),很容易把这两个产品混淆。百炼是一个可视化平台,同时服务于技术和非技术同学,使用更简单,更上层;而灵积旨在通过灵活、易用的 模型 API 接口,让开发者能够快速调用丰富的大模型能力,面向技术开发同学,更底层。后续我们通过编程来调用 AI 大模型,更多的是和灵积打交道。
利用阿里云百炼平台,我们可以轻松体验 AI 大模型和构建 AI 应用。
1)快速体验 AI 大模型:
2)创建自己的 AI 应用,支持智能体、工作流和智能体编排应用。
智能体应用:
工作流应用,可以自主编排多个工作节点,完成复杂任务。适用于需要结合大模型执行 高确定性 的业务逻辑的流程型应用,如可执行不同任务的智能助理工作流、自动化分析会议记录工作流等。
智能体编排应用支持用户通过画布的自定义智能体执行逻辑,编排主体为智能体,如智能体节点、智能体组及节点等,可快速实现复杂多智能体协同的逻辑设计和业务效果验证。适用于需要处理大量数据、进行复杂计算或执行多任务处理的场景。
创建好了应用(智能体、工作流或智能体编排)后,可以参考 应用调用文档,通过 DashScope SDK 或 HTTP 的方式在自己的项目中集成应用。
除了平台之外,还可以通过 AI 软件客户端来使用大模型能力,这里推荐 2 个鱼皮用的比较多的:
1)Cherry Studio:一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台。Cherry Studio 提供高度自定义的设计、强大的扩展能力和友好的用户体验。
2)Cursor:以 AI 为核心的编程开发工具,可以快速生成项目代码、理解整个代码库并提供智能建议。
在本项目中,也会使用 Cursor 来生成前端项目代码。
可以通过编程的方式在自己的项目中调用 AI 大模型,又可以分为 2 种方式:
对于第 1 种方式,可以使用特定平台提供的 SDK 或 API,参考平台的文档来接入;也可以使用 AI 开发框架,比如 Spring AI、Spring AI Alibaba、LangChain4j 等自主选择大模型进行调用,可以灵活切换使用的大模型而几乎不用修改代码。
对于第 2 种方式,一般只能使用特定平台提供的 SDK 或 API,参考 平台的文档 来接入,每个大模型服务平台的代码都不一样。
如果是个人小项目,第 2 种方式可能会更方便,因为把大多数应用构建的操作都放到了云端可视化平台而不是通过编程来实现;但如果是企业级项目,考虑到扩展性,更推荐第 1 种方式,直接用 Spring AI 等开发框架调用 AI 大模型。
安装的 JDK 版本必须是 17 或 21,** 不能选择其他版本!** 因为项目使用最新版本的 Spring Boot 3 和 Spring AI 开发框架。
推荐使用 21 版本,因为支持虚拟线程这个王炸功能。
可参考视频安装 JDK:https://www.bilibili.com/video/BV14SUNYREv8
在 IDEA 中新建项目,选择 Spring Initializr 模板,注意需要确保 Server URL 为 https://start.spring.io/。
配置如图,Java 版本选择 21:
选择 Spring Boot 3.4.4 版本,可以根据自己的需要添加一些依赖,比如 Spring Web 和 Lombok:
当然,后续通过修改 Maven 配置添加依赖也是可以的。
点击创建,就得到了一个 Spring Boot 项目,需要等待 Maven 为我们安装依赖。
💡 小提示,如果 Lombok 依赖报错的话,可以手动指定 Lombok 的版本,pom.xml 代码如下:
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<version>1.18.36</version>
<optional>true</optional>
</dependency>
可以根据自己的需要,整合一些开发项目常用的依赖。此处我们整合 Hutool 工具库和 Knife4j 接口文档即可。
Hutool 是主流的 Java 工具类库,集合了丰富的工具类,涵盖字符串处理、日期操作、文件处理、加解密、反射、正则匹配等常见功能。它的轻量化和无侵入性让开发者能够专注于业务逻辑而不必编写重复的工具代码。例如,DateUtil.formatDate(new Date()) 可以快速将当前日期格式化为字符串。
参考官方文档引入:https://doc.hutool.cn/pages/index/#%F0%9F%8D%8Amaven
在 Maven 的 pom.xml 中添加依赖:
<dependency>
<groupId>cn.hutool</groupId>
<artifactId>hutool-all</artifactId>
<version>5.8.37</version>
</dependency>
Knife4j 是基于 Swagger 接口文档的增强工具,提供了更加友好的 API 文档界面和功能扩展,例如动态参数调试、分组文档等。它适合用于 Spring Boot 项目中,能够通过简单的配置自动生成接口文档,让开发者和前端快速了解和调试接口,提高写作效率。
参考 官方文档 引入,注意我们使用的是 Spring Boot 3.x,不要引入错版本了:
1)在 Maven 的 pom.xml 中添加依赖:
<dependency>
<groupId>com.github.xiaoymin</groupId>
<artifactId>knife4j-openapi3-jakarta-spring-boot-starter</artifactId>
<version>4.4.0</version>
</dependency>
2)新建 controller 包用于存放 API 接口,编写一个健康检查接口用于测试接口文档是否正常引入:
@RestController
@RequestMapping("/health")
public class HealthController {
@GetMapping
public String healthCheck() {
return "ok";
}
}
3)在 application.yml 中追加接口文档配置,扫描 controller 包。这段配置可以从官方文档中复制过来,然后微调即可:
spring:
application:
name: yu-ai-agent
server:
port: 8123
servlet:
context-path: /api
springdoc:
swagger-ui:
path: /swagger-ui.html
tags-sorter: alpha
operations-sorter: alpha
api-docs:
path: /v3/api-docs
group-configs:
- group: 'default'
paths-to-match: '/**'
packages-to-scan: com.yupi.yuaiagent.controller
knife4j:
enable: true
setting:
language: zh_cn
4)启动项目,访问 http://localhost:8123/api/doc.html 能够看到接口文档,可以测试调用接口:
💡 如果是要开发完整项目,除了引入依赖之外,还要编写一些通用基础代码,比如自定义异常、响应包装类、全局异常处理器、请求包装类、全局跨域配置等。由于这些并不是本项目的学习重点,不再赘述,不会初始化项目的同学,可以学习 编程导航的智能协同云图库项目,有细致入微的讲解。
在实际开发中,有多种方式可以在应用程序中调用 AI 大模型。下面详细介绍 4 种主流的接入方式,并通过实例代码展示如何在 Java 项目中实现与 AI 大模型的交互。
本教程选择阿里云百炼平台作为示例,因为阿里系大模型对 Java 开发生态支持较好,更容易与现有 Java 框架集成。
再次提示:AI 技术领域发展迅猛,相关 API 和技术栈更新非常快速,强烈建议在阅读教程时,结合最新的官方文档学习。
下面所有的示例代码均放置在项目的 demo.invoke 包下,方便统一管理和查阅。
SDK(软件开发工具包)是官方提供的最直接的集成方式,通常提供了完善的类型支持和错误处理机制。
1)首先需要按照官方文档安装 SDK:安装 SDK 官方指南
在选择 SDK 版本时,建议在 Maven 仓库查看最新的版本号:Maven 中央仓库版本信息
在 pom.xml 中引入依赖:
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>dashscope-sdk-java</artifactId>
<version>2.19.1</version>
</dependency>
2)先在百炼平台申请一个 API Key,注意不要泄露:
3)项目中新建 demo.invoke 包,集中存放调用 AI 大模型的示例代码。
具体的代码示例可参考官方文档 通过 API 调用通义千问,如图:
为了安全管理 API 密钥,我们创建一个接口类来存储密钥信息(在实际生产环境中,应使用配置文件或环境变量):
public interface TestApiKey {
String API_KEY = "你的 API Key";
}
使用 SDK 调用模型的完整示例代码:
import java.util.Arrays;
import java.lang.System;
import com.alibaba.dashscope.aigc.generation.Generation;
import com.alibaba.dashscope.aigc.generation.GenerationParam;
import com.alibaba.dashscope.aigc.generation.GenerationResult;
import com.alibaba.dashscope.common.Message;
import com.alibaba.dashscope.common.Role;
import com.alibaba.dashscope.exception.ApiException;
import com.alibaba.dashscope.exception.InputRequiredException;
import com.alibaba.dashscope.exception.NoApiKeyException;
import com.alibaba.dashscope.utils.JsonUtils;
public class SdkAiInvoke {
public static GenerationResult callWithMessage() throws ApiException, NoApiKeyException, InputRequiredException {
Generation gen = new Generation();
Message systemMsg = Message.builder()
.role(Role.SYSTEM.getValue())
.content("You are a helpful assistant.")
.build();
Message userMsg = Message.builder()
.role(Role.USER.getValue())
.content("你是谁?")
.build();
GenerationParam param = GenerationParam.builder()
.apiKey(TestApiKey.API_KEY)
.model("qwen-plus")
.messages(Arrays.asList(systemMsg, userMsg))
.resultFormat(GenerationParam.ResultFormat.MESSAGE)
.build();
return gen.call(param);
}
public static void main(String[] args) {
try {
GenerationResult result = callWithMessage();
System.out.println(JsonUtils.toJson(result));
} catch (ApiException | NoApiKeyException | InputRequiredException e) {
System.err.println("An error occurred while calling the generation service: " + e.getMessage());
}
System.exit(0);
}
}
4)运行项目,成功看到 AI 的回复:
对于 SDK 不支持的编程语言或需要更灵活控制的场景,可以直接使用 HTTP 请求调用 AI 大模型的 API。
💡 使用建议:一般来说,如果有官方 SDK 支持,优先使用 SDK;只有在不支持 SDK 的情况下,再考虑直接 HTTP 调用
HTTP 调用的详细说明可参考官方文档:通过 API 调用通义千问
可以利用 AI 将上述 CURL 代码转换为 Java 的 Hutool 工具类网络请求代码,示例 Prompt:
将上述请求转换为 hutool 工具类的请求代码
AI 生成的代码如下,可以自己略作修改:
public class HttpAiInvoke {
public static void main(String[] args) {
String url = "https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation";
Map<String, String> headers = new HashMap<>();
headers.put("Authorization", "Bearer " + TestApiKey.API_KEY);
headers.put("Content-Type", "application/json");
JSONObject requestBody = new JSONObject();
requestBody.put("model", "qwen-plus");
JSONObject input = new JSONObject();
JSONObject[] messages = new JSONObject[2];
JSONObject systemMessage = new JSONObject();
systemMessage.put("role", "system");
systemMessage.put("content", "You are a helpful assistant.");
messages[0] = systemMessage;
JSONObject userMessage = new JSONObject();
userMessage.put("role", "user");
userMessage.put("content", "你是谁?");
messages[1] = userMessage;
input.put("messages", messages);
requestBody.put("input", input);
JSONObject parameters = new JSONObject();
parameters.put("result_format", "message");
requestBody.put("parameters", parameters);
HttpResponse response = HttpRequest.post(url)
.addHeaders(headers)
.body(requestBody.toString())
.execute();
if (response.isOk()) {
System.out.println("请求成功,响应内容:");
System.out.println(response.body());
} else {
System.out.println("请求失败,状态码:" + response.getStatus());
System.out.println("响应内容:" + response.body());
}
}
}
Spring AI 是 Spring 生态系统的新成员,旨在简化 AI 功能与 Spring 应用的集成。Spring AI 通过提供统一接口、支持集成多种 AI 服务提供商和模型类型、各种 AI 开发常用的特性(比如 RAG 知识库、Tools 工具调用和 MCP 模型上下文协议),简化了 AI 应用开发代码,使开发者能够专注于业务逻辑,提高了开发效率。
Spring AI 的文档写得还是比较清晰易懂的,打破了我对国外文档的一贯认知(
Spring AI 的核心特性如下,参考官方文档:
Spring AI 默认没有支持所有的大模型(尤其是国产的),更多的是支持兼容 OpenAI API 的大模型的集成,参考 官方的模型对比。因此,我们如果想要调用阿里系大模型(比如通义千问),推荐直接使用阿里自主封装的 Spring AI Alibaba 框架,它不仅能直接继承阿里系大模型,用起来更方便,而且与标准的 Spring AI 保持兼容。
可以参考下列官方文档,来跑通调用大模型的流程:
1)引入依赖:
<dependency>
<groupId>com.alibaba.cloud.ai</groupId>
<artifactId>spring-ai-alibaba-starter</artifactId>
<version>1.0.0-M6.1</version>
</dependency>
官方提醒:由于 spring-ai 相关依赖包还没有发布到中央仓库,如出现 spring-ai-core 等相关依赖解析问题,请在项目的 pom.xml 依赖中加入如下仓库配置。
<repositories>
<repository>
<id>spring-milestones</id>
<name>Spring Milestones</name>
<url>https://repo.spring.io/milestone</url>
<snapshots>
<enabled>false</enabled>
</snapshots>
</repository>
</repositories>
2)编写配置:
spring:
application:
name: spring-ai-alibaba-qwq-chat-client-example
ai:
dashscope:
api-key: ${AI_DASHSCOPE_API_KEY}
chat:
options:
model: qwen-plus
3)编写示例代码,注意要注入 dashscopeChatModel:
@Component
public class SpringAiAiInvoke implements CommandLineRunner {
@Resource
private ChatModel dashscopeChatModel;
@Override
public void run(String... args) throws Exception {
AssistantMessage output = dashscopeChatModel.call(new Prompt("你好,我是鱼皮"))
.getResult()
.getOutput();
System.out.println(output.getText());
}
}
上述代码实现了 CommandLineRunner 接口,我们启动 Spring Boot 项目时,会自动注入大模型 ChatModel 依赖,并且单次执行该类的 run 方法,达到测试的效果。
💡 上述代码中我们是通过 ChatModel 对象调用大模型,适合简单的对话场景。除了这种方式外,Spring AI 还提供了 ChatClient 调用方式,提供更多高级功能(比如会话记忆),适合复杂场景,在后续 AI 应用开发章节中会详细介绍。
和 Spring AI 作用一样,LangChain4j 是一个专注于构建基于大语言模型(LLM)应用的 Java 框架,作为知名 AI 框架 LangChain 的 Java 版本,它提供了丰富的工具和抽象层,简化了与 LLM 的交互和应用开发。
LangChain 官方是没有支持阿里系大模型的,只能用 社区版本的整合大模型包。可以在官方文档中查询支持的模型列表:LangChain4j 模型集成
要接入阿里云灵积模型,可以参考官方文档:DashScope 模型集成,提供了依赖和示例代码。
1)首先引入依赖:
<dependency>
<groupId>dev.langchain4j</groupId>
<artifactId>langchain4j-community-dashscope</artifactId>
<version>1.0.0-beta2</version>
</dependency>
值得一提的是,LangChain4j 也提供了 Spring Boot Starter,方便在 Spring 项目中使用,最新版本号可以在 Maven 中央仓库 查询。我们这里由于只是编写 Demo,而且已经引入了 Spring AI 的 Starter,就不再引入 LangChain 的 Starter 了,担心会有冲突。
2)参考 官方文档 来编写示例对话代码,创建了一个 ChatModel 并调用,是不是和 Spring AI 很像?
public class LangChainAiInvoke {
public static void main(String[] args) {
ChatLanguageModel qwenModel = QwenChatModel.builder()
.apiKey(TestApiKey.API_KEY)
.modelName("qwen-max")
.build();
String answer = qwenModel.chat("我是程序员鱼皮,这是编程导航 codefather.cn 的原创项目教程");
System.out.println(answer);
}
}
最后直接运行 Main 方法进行测试即可。
以下是 4 种 AI 大模型接入方式的优缺点对比:
| 接入方式 | 优点 | 缺点 | 适用场景 |
|---|---|---|---|
| SDK 接入 | • 类型安全,编译时检查 • 完善的错误处理 • 通常有详细文档 • 性能优化好 | • 依赖特定版本 • 可能增加项目体积 • 语言限制 | • 需要深度集成 • 单一模型提供商 • 对性能要求高 |
| HTTP 接入 | • 无语言限制 • 不增加额外依赖 • 灵活性高 | • 需要手动处理错误 • 序列化 / 反序列化复杂 • 代码冗长 | • SDK 不支持的语言 • 简单原型验证 • 临时性集成 |
| Spring AI | • 统一的抽象接口 • 易于切换模型提供商 • 与 Spring 生态完美融合 • 提供高级功能 | • 增加额外抽象层 • 可能不支持特定模型的特性 • 版本还在快速迭代 | • Spring 应用 • 需要支持多种模型 • 需要高级 AI 功能 |
| LangChain4j | • 提供完整的 AI 应用工具链 • 支持复杂工作流 • 丰富的组件和工具 • 适合构建 AI 代理 | • 学习曲线较陡 • 文档相对较少 • 抽象可能引入性能开销 | • 构建复杂 AI 应用 • 需要链式操作 • RAG 应用开发 |
个人更推荐选择 Spring AI,一方面是它属于 Spring 生态,更主流;另一方面是它简单易用、资源更多,更利于学习,也能满足我们绝大多数 AI 项目的开发需求。因此本项目的后续教程,也会以 Spring AI 为主。学会一个 AI 开发框架后,其他框架学起来都是如鱼得水。
💡 无论选择哪种接入方式,都建议先使用简单的测试案例验证接入是否成功,然后再进行更复杂的功能开发。
有时,我们希望在本地环境中部署和使用大模型,以获得更好的数据隐私控制、更低的延迟以及无需网络连接的使用体验。下面来讲解如何在本地安装和接入 AI 大模型,并通过 Spring AI 框架进行调用。
可参考鱼皮的 Mac 本地部署 DeepSeek 视频教程:https://www.bilibili.com/video/BV1KYwoevEit/
可以直接使用开源项目 Ollama 快速安装大模型,无需自己执行脚本安装、也省去了复杂的环境配置。
Ollama 不仅提供了友好的命令行界面,还支持通过 API 调用,方便与各种应用程序集成,参考 官方文档。
1)首先下载安装 Ollama,并安装其命令行工具:
2)安装完成后,打开终端执行 ollama --help 可以查看用法:
3)进入到 Ollama 官网的模型广场 中,挑选模型:
4)选中某个模型后,支持切换模型版本,建议刚开始选择小模型,安装速度更快、对硬件的要求也更低:
5)执行 ollama 命令来快速安装并运行大模型:
6)安装运行成功后,可以在终端打字和大模型对话:
访问 http://localhost:11434,能够看到模型正常运行:
Spring AI 原生支持调用 Ollama 大模型,直接参考 官方文档 编写配置和代码即可。
1)需要先引入依赖:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-ollama-spring-boot-starter</artifactId>
<version>1.0.0-M6</version>
</dependency>
官方提醒:由于 spring-ai 相关依赖包还没有发布到中央仓库,如出现 spring-ai-core 等相关依赖解析问题,请在项目的 pom.xml 依赖中加入如下仓库配置。
<repositories>
<repository>
<id>spring-milestones</id>
<name>Spring Milestones</name>
<url>https://repo.spring.io/milestone</url>
<snapshots>
<enabled>false</enabled>
</snapshots>
</repository>
</repositories>
如果安装依赖失败了,需要查看具体的报错信息,比如出现了因为 Lombok 没有指定版本号导致的错误。可以尝试删除本地仓库中与 Lombok 相关的缓存文件,Mac 系统的本地仓库一般位于~/.m2/repository ,找到org/projectlombok/lombok目录并删除,然后重新构建项目。
2)填写配置,注意模型填写为我们刚刚安装并运行的模型:
spring:
ai:
ollama:
base-url: http://localhost:11434
chat:
model: gemma3:1b
3)在 demo.invoke 包中编写一段测试代码:
public class OllamaAiInvoke implements CommandLineRunner {
@Resource
private ChatModel ollamaChatModel;
@Override
public void run(String... args) throws Exception {
AssistantMessage output = ollamaChatModel.call(new Prompt("你好,我是鱼皮"))
.getResult()
.getOutput();
System.out.println(output.getText());
}
}
4)启动项目,成功运行并查看到 AI 的回答:
1)完善后端项目的初始化,补充通用基础代码
2)使用其他 AI 大模型平台,比如 火山引擎,并且通过 SDK 接入大模型
1)在 AI 应用平台上创建智能体应用、工作流应用、智能体编排应用
2)使用至少一个 AI 软件客户端,推荐 Cursor
3)完成后端项目初始化
4)实践 4 种程序调用 AI 大模型的方式
5)使用 Ollama 部署 1 个本地大模型,并且通过 Spring AI 调用