微信扫码
添加专属顾问
我要投稿
探索边缘设备上的AI新突破,Phi-4-mini和Phi-4-multimodal的函数调用能力助力高效AI代理构建。 核心内容: 1. Phi-4-mini和Phi-4-multimodal的函数调用功能介绍 2. 函数调用在AI代理构建中的应用场景和工作原理 3. 利用函数调用实现本地知识能力扩展和任务效率执行提升
最新发布的Phi-4-mini和Phi-4-multimodal现已支持函数调用功能。该功能使模型能够连接外部工具和API。通过在边缘设备上部署具有函数调用能力的Phi-4-mini和Phi-4-multimodal,我们可以实现本地知识能力的扩展,并提高其任务执行效率。本文将重点介绍如何利用Phi-4-mini的函数调用能力在边缘设备上构建高效的AI代理。
什么是函数调用
工作原理
首先我们需要了解函数调用的工作原理:
工具集成: 函数调用允许LLM/SLM与外部工具和API交互,例如天气API、数据库或其他服务。
函数定义: 定义LLM/SLM可以调用的函数(工具),指定其名称、参数和预期输出。
LLM检测: LLM/SLM分析用户输入并确定是否需要函数调用以及使用哪个函数。
JSON输出: LLM/SLM输出包含要调用的函数名称和函数所需参数的JSON对象。
外部执行: 应用程序使用LLM/SLM提供的参数执行函数调用。
返回LLM: 将函数调用的输出返回给LLM/SLM,LLM/SLM可以使用此信息生成对用户的响应。
应用场景
数据检索:将自然语言查询转换为API调用以获取数据(例如,“显示我最近的订单"触发数据库查询)
操作执行:将用户请求转换为特定函数调用(例如,“安排会议"变为日历API调用)
计算任务:通过专用函数处理数学或逻辑运算(例如,计算复利或统计分析)
数据处理:将多个函数调用链接在一起(例如,获取数据 → 解析 → 转换 → 存储)
UI/UX集成:根据用户交互触发界面更新(例如,更新地图标记或显示图表)
Phi-4-mini / Phi-4-multimodal的函数调用
Phi-4-mini / Phi-4-multimodal支持单函数和并行函数调用。调用时需要注意:
需要在System中定义Tools以启动单函数或并行函数调用
如果要启动并行函数调用,还需要在System提示中添加’some tools'
单函数调用
tools = [ { "name": "get_match_result", "description": "获取比赛结果", "parameters": { "match": { "description": "比赛名称", "type": "str", "default": "阿森纳 vs 曼城" } } },]messages = [ { "role": "system", "content": "你是一个有用的助手", "tools": json.dumps(tools), # 使用tools参数将工具传递到系统消息中 }, { "role": "user", "content": "今天阿森纳对曼城的比赛结果是什么?" }]
并行函数调用
AGENT_TOOLS = {
"booking_fight": {
"name": "booking_fight",
"description": "预订航班",
"parameters": {
"departure": {
"description": "出发机场代码",
"type": "str",
},
"destination": {
"description": "目的地机场代码",
"type": "str",
},
"outbound_date": {
"description": "出发日期",
"type": "str",
},
"return_date": {
"description": "返回日期",
"type": "str",
}
}
},
"booking_hotel": {
"name": "booking_hotel",
"description": "预订酒店",
"parameters": {
"query": {
"description": "城市名称",
"type": "str",
},
"check_in_date": {
"description": "入住日期",
"type": "str",
},
"check_out_date": {
"description": "退房日期",
"type": "str",
}
}
},
}
SYSTEM_PROMPT = """
你是我的旅行助手,可以使用以下工具。
"""
messages = [
{
"role": "system",
"content": SYSTEM_PROMPT,
"tools": json.dumps(AGENT_TOOLS), # 使用tools参数将工具传递到系统消息中
},
{
"role": "user",
"content": """我将于2025年3月21日至2025年3月27日从伦敦到纽约出差,你能帮我预订酒店和机票吗"""
}
]
使用Ollama和Phi-4-mini函数调用在边缘设备上创建AI代理
Ollama是一个流行的免费工具,用于本地部署LLM/SLM,可与VS Code的AI工具包结合使用。除了可以部署在PC/笔记本电脑上,还可以部署在IoT、手机、容器等设备上。要在Ollama上使用Phi-4-mini,需要使用Ollama 0.5.13+。Ollama支持不同的量化版本,如下图所示:
使用Ollama,我们可以在边缘部署Phi-4-mini,并在有限的计算能力下实现具有函数调用的AI代理,使生成式AI在边缘设备上得到更有效的应用。
当前问题
一个令人遗憾的体验 - 如果直接使用上述方式尝试调用Ollama,你会发现函数调用不会被触发。在Ollama的GitHub Issue上有相关讨论。你可以进入Issue https://github.com/ollama/ollama/issues/9437。通过修改ModelFile中的Phi-4-mini模板来实现单函数调用,但并行函数调用的调用仍然失败。
解决方案
我们通过对模板进行调整实现了修复。我们根据Phi-4-mini的Chat Template进行了改进,并重新修改了Modelfile。当然,量化模型对结果有很大影响。调整如下:
TEMPLATE """
{{- if .Messages }}
{{- if or .System .Tools }}<|system|>
{{ if .System }}{{ .System }}
{{- end }}
In addition to plain text responses, you can chose to call one or more of the provided functions.
Use the following rule to decide when to call a function:
* if the response can be generated from your internal knowledge (e.g., as in the case of queries like "What is the capital of Poland?"), do so
* if you need external information that can be obtained by calling one or more of the provided functions, generate a function calls
If you decide to call functions:
* prefix function calls with functools marker (no closing marker required)
* all function calls should be generated in a single JSON list formatted as functools[{"name": [function name], "arguments": [function arguments as JSON]}, ...]
* follow the provided JSON schema. Do not hallucinate arguments or values. Do to blindly copy values from the provided samples
* respect the argument type formatting. E.g., if the type if number and format is float, write value 7 as 7.0
* make sure you pick the right functions that match the user intent
Available functions as JSON spec:
{{- if .Tools }}
{{ .Tools }}
{{- end }}<|end|>
{{- end }}
{{- range .Messages }}
{{- if ne .Role "system" }}<|{{ .Role }}|>
{{- if and .Content (eq .Role "tools") }}
{"result": {{ .Content }}}
{{- else if .Content }}
{{ .Content }}
{{- else if .ToolCalls }}
functools[
{{- range .ToolCalls }}{{ "{" }}"name": "{{ .Function.Name }}", "arguments": {{ .Function.Arguments }}{{ "}" }}
{{- end }}]
{{- end }}<|end|>
{{- end }}
{{- end }}<|assistant|>
{{ else }}
{{- if .System }}<|system|>
{{ .System }}<|end|>{{ end }}{{ if .Prompt }}<|user|>
{{ .Prompt }}<|end|>{{ end }}<|assistant|>
{{ end }}{{ .Response }}{{ if .Response }}<|user|>{{ end }}
"""
我们使用不同的量化模型测试了该解决方案。在笔记本电脑环境中,我们建议使用以下模型来启用单/并行函数调用:phi4-mini:3.8b-fp16。注意:你需要将定义的Modelfile与phi4-mini:3.8b-fp16绑定在一起才能使其工作。
请在命令行中执行以下命令:
# 如果还没有下载,请先执行此命令
ollama run phi4-mini:3.8b-fp16
# 与调整后的Modelfile绑定
ollama create phi4-mini:3.8b-fp16 -f {你的Modelfile路径}
测试Phi-4-mini的单函数调用和并行函数调用。
单函数调用
并行函数调用
以上示例只是一个简单的介绍。随着开发的推进,我们希望找到更简单的方法在边缘设备上应用它,使用函数调用扩展Phi-4-mini / Phi-4-multimodal的应用场景,并在垂直行业中开发更多用例。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-03-13
手把手教你实现自己的“Manus”:构建基于容器的多用户Agent应用【下】
2025-03-13
32.7k star, 让AI接管你的浏览器!5秒完成1小时工作
2025-03-13
罗永浩的AI新战场,能否打破“行业冥灯”魔咒?
2025-03-12
Mac Studio 首发实测:10 万块的顶配 Mac,能跑满血版 DeepSeek 吗?
2025-03-11
【AI-智算】DeepSeek-r1:671b性能压测&H100
2025-03-10
【一文看懂】什么是端侧算力?
2025-03-10
Tauri 2.0 —— 或许是做 AI 应用的最佳选择
2025-03-10
一文读懂:AI时代为什么需要DPU?
2024-03-30
2024-05-09
2024-07-07
2024-07-23
2024-06-23
2024-07-01
2024-06-24
2024-10-20
2024-06-08
2025-02-12