使用Ollama和Phi4mini在边缘设备上构建AI Agent
本文由ClinePRO自动翻译完成
原文作者:卢建晖,微软高级云技术布道师。前微软最有价值专家和微软技术社区区域总监,微软人工智能黑客松教练,作为讲师为微软 Ignite ,Teched ,PyCon ,dotNETConf 等技术会议分享技术。 专注于人工智能、云原生技术、物联网,以及前端应用开发多个领域。有多年在电信,教育以及金融在人工智能解决方案的经验. 现阶段专注于 OpenAI 技术的步道以及行业落地的推广工作上。
原文地址:https://techcommunity.microsoft.com/blog/educatordeveloperblog/building-ai-agents-on-edge-devices-using-ollama–phi-4-mini-function-calling/4391029
最新发布的Phi-4-mini和Phi-4-multimodal现已支持函数调用功能。该功能使模型能够连接外部工具和API。通过在边缘设备上部署具有函数调用能力的Phi-4-mini和Phi-4-multimodal,我们可以实现本地知识能力的扩展,并提高其任务执行效率。本文将重点介绍如何利用Phi-4-mini的函数调用能力在边缘设备上构建高效的AI代理。
什么是函数调用
工作原理
首先我们需要了解函数调用的工作原理:
- 工具集成: 函数调用允许LLM/SLM与外部工具和API交互,例如天气API、数据库或其他服务。
- 函数定义: 定义LLM/SLM可以调用的函数(工具),指定其名称、参数和预期输出。
- LLM检测: LLM/SLM分析用户输入并确定是否需要函数调用以及使用哪个函数。
- JSON输出: LLM/SLM输出包含要调用的函数名称和函数所需参数的JSON对象。
- 外部执行: 应用程序使用LLM/SLM提供的参数执行函数调用。
- 返回LLM: 将函数调用的输出返回给LLM/SLM,LLM/SLM可以使用此信息生成对用户的响应。
应用场景
- 数据检索:将自然语言查询转换为API调用以获取数据(例如,“显示我最近的订单"触发数据库查询)
- 操作执行:将用户请求转换为特定函数调用(例如,“安排会议"变为日历API调用)
- 计算任务:通过专用函数处理数学或逻辑运算(例如,计算复利或统计分析)
- 数据处理:将多个函数调用链接在一起(例如,获取数据 → 解析 → 转换 → 存储)
- UI/UX集成:根据用户交互触发界面更新(例如,更新地图标记或显示图表)
Phi-4-mini / Phi-4-multimodal的函数调用
Phi-4-mini / Phi-4-multimodal支持单函数和并行函数调用。调用时需要注意:
- 需要在System中定义Tools以启动单函数或并行函数调用
- 如果要启动并行函数调用,还需要在System提示中添加’some tools'
单函数调用
tools = [
{
"name": "get_match_result",
"description": "获取比赛结果",
"parameters": {
"match": {
"description": "比赛名称",
"type": "str",
"default": "阿森纳 vs 曼城"
}
}
},
]
messages = [
{
"role": "system",
"content": "你是一个有用的助手",
"tools": json.dumps(tools), # 使用tools参数将工具传递到系统消息中
},
{
"role": "user",
"content": "今天阿森纳对曼城的比赛结果是什么?"
}
]
并行函数调用
AGENT_TOOLS = {
"booking_fight": {
"name": "booking_fight",
"description": "预订航班",
"parameters": {
"departure": {
"description": "出发机场代码",
"type": "str",
},
"destination": {
"description": "目的地机场代码",
"type": "str",
},
"outbound_date": {
"description": "出发日期",
"type": "str",
},
"return_date": {
"description": "返回日期",
"type": "str",
}
}
},
"booking_hotel": {
"name": "booking_hotel",
"description": "预订酒店",
"parameters": {
"query": {
"description": "城市名称",
"type": "str",
},
"check_in_date": {
"description": "入住日期",
"type": "str",
},
"check_out_date": {
"description": "退房日期",
"type": "str",
}
}
},
}
SYSTEM_PROMPT = """
你是我的旅行助手,可以使用以下工具。
"""
messages = [
{
"role": "system",
"content": SYSTEM_PROMPT,
"tools": json.dumps(AGENT_TOOLS), # 使用tools参数将工具传递到系统消息中
},
{
"role": "user",
"content": """我将于2025年3月21日至2025年3月27日从伦敦到纽约出差,你能帮我预订酒店和机票吗"""
}
]
使用Ollama和Phi-4-mini函数调用在边缘设备上创建AI代理
Ollama是一个流行的免费工具,用于本地部署LLM/SLM,可与VS Code的AI工具包结合使用。除了可以部署在PC/笔记本电脑上,还可以部署在IoT、手机、容器等设备上。要在Ollama上使用Phi-4-mini,需要使用Ollama 0.5.13+。Ollama支持不同的量化版本,如下图所示:
使用Ollama,我们可以在边缘部署Phi-4-mini,并在有限的计算能力下实现具有函数调用的AI代理,使生成式AI在边缘设备上得到更有效的应用。
当前问题
一个令人遗憾的体验 - 如果直接使用上述方式尝试调用Ollama,你会发现函数调用不会被触发。在Ollama的GitHub Issue上有相关讨论。你可以进入Issue https://github.com/ollama/ollama/issues/9437。通过修改ModelFile中的Phi-4-mini模板来实现单函数调用,但并行函数调用的调用仍然失败。
解决方案
我们通过对模板进行调整实现了修复。我们根据Phi-4-mini的Chat Template进行了改进,并重新修改了Modelfile。当然,量化模型对结果有很大影响。调整如下:
TEMPLATE """
{{- if .Messages }}
{{- if or .System .Tools }}<|system|>
{{ if .System }}{{ .System }}
{{- end }}
In addition to plain text responses, you can chose to call one or more of the provided functions.
Use the following rule to decide when to call a function:
* if the response can be generated from your internal knowledge (e.g., as in the case of queries like "What is the capital of Poland?"), do so
* if you need external information that can be obtained by calling one or more of the provided functions, generate a function calls
If you decide to call functions:
* prefix function calls with functools marker (no closing marker required)
* all function calls should be generated in a single JSON list formatted as functools[{"name": [function name], "arguments": [function arguments as JSON]}, ...]
* follow the provided JSON schema. Do not hallucinate arguments or values. Do to blindly copy values from the provided samples
* respect the argument type formatting. E.g., if the type if number and format is float, write value 7 as 7.0
* make sure you pick the right functions that match the user intent
Available functions as JSON spec:
{{- if .Tools }}
{{ .Tools }}
{{- end }}<|end|>
{{- end }}
{{- range .Messages }}
{{- if ne .Role "system" }}<|{{ .Role }}|>
{{- if and .Content (eq .Role "tools") }}
{"result": {{ .Content }}}
{{- else if .Content }}
{{ .Content }}
{{- else if .ToolCalls }}
functools[
{{- range .ToolCalls }}{{ "{" }}"name": "{{ .Function.Name }}", "arguments": {{ .Function.Arguments }}{{ "}" }}
{{- end }}]
{{- end }}<|end|>
{{- end }}
{{- end }}<|assistant|>
{{ else }}
{{- if .System }}<|system|>
{{ .System }}<|end|>{{ end }}{{ if .Prompt }}<|user|>
{{ .Prompt }}<|end|>{{ end }}<|assistant|>
{{ end }}{{ .Response }}{{ if .Response }}<|user|>{{ end }}
"""
我们使用不同的量化模型测试了该解决方案。在笔记本电脑环境中,我们建议使用以下模型来启用单/并行函数调用:phi4-mini:3.8b-fp16。注意: 你需要将定义的Modelfile与phi4-mini:3.8b-fp16绑定在一起才能使其工作。
请在命令行中执行以下命令:
# 如果还没有下载,请先执行此命令
ollama run phi4-mini:3.8b-fp16
# 与调整后的Modelfile绑定
ollama create phi4-mini:3.8b-fp16 -f {你的Modelfile路径}
测试Phi-4-mini的单函数调用和并行函数调用。
单函数调用
并行函数调用
以上示例只是一个简单的介绍。随着开发的推进,我们希望找到更简单的方法在边缘设备上应用它,使用函数调用扩展Phi-4-mini / Phi-4-multimodal的应用场景,并在垂直行业中开发更多用例。
资源
- Hugging face上的Phi-4模型 https://huggingface.co/collections/microsoft/phi-4-677e9380e514feb5577a40e4
- Ollama上的Phi-4-mini https://ollama.com/library/phi4-mini
- 学习函数调用 https://huggingface.co/docs/hugs/en/guides/function-calling
- Phi Cookbook - Phi模型的示例和资源 https://aka.ms/phicookbook
更新日期: 2025年3月11日
版本: 3.0