AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


妙用LangChain智能体,搭建音乐推荐系统
发布日期:2024-05-23 20:50:49 浏览次数: 2267 来源:AI科技论谈



在人工智能的浪潮中,大型语言模型(LLMs)因其在自然语言处理领域的巨大贡献而广受欢迎。尽管如此,LLMs在实时获取外部数据方面存在局限。这些模型的训练是在特定时间点完成的,这就意味着它们无法获取到最新的信息,从而影响提供准确答案的能力。

为了解决这一问题,智能体(Agents)被引入,它是一种生成式人工智能(Generative AI)构建,可以将简单的问答或文本生成提升到一个新的层次。通过智能体,可以提供访问不同工具或API的权限,并允许模型本身推理出应该采取的正确行动。例如,通过提供访问天气API的权限,智能体可以检索必要的数据来回答相关问题。

1 音乐推荐用例

在音乐推荐的场景中,传统的推荐引擎或系统需要构建特定模型并经历训练。然而,对于简单的用例,一个不需要构建特定模型或经历训练的解决方案更为合适。LangChain提供了一种智能体驱动的方法,通过ReAct智能体(推理+行动),允许在采取行动之前进行观察和思考。

LangChain是一个流行的Python框架,它通过提供现成的模块来简化生成式AI应用程序,这些模块有助于提示工程、RAG实现和LLM工作流程编排。在这个特定的用例中,LangChain被用来构建ReAct智能体,并为它提供所需的必要工具。

2 智能体驱动的解决方案

2.1 设置

在这个例子中,我们将在SageMaker Studio Notebook中使用一个ml.t3.medium实例进行工作。你可以选择喜欢的开发环境,只要能够安装以下库:

!pip install spotipy langchain

注意,在开始之前,如果还没有Spotify开发者账户,请创建。在你的Spotify开发者账户中,请确保已经创建了一个应用程序,这将显示与API一起使用所需的凭证。创建完成,你应该能够在仪表板的项目中可视化你的凭证(设置选项卡)和API请求。

然后在笔记本中实例化用于与Spotify工作的客户端。

import spotipy
import spotipy.util as util
from spotipy.oauth2 import SpotifyClientCredentials
import random
client_id = '输入客户端ID'
client_secret = '输入客户端密钥'
# 实例化spotipy客户端
sp = spotipy.Spotify(client_credentials_manager=
SpotifyClientCredentials(client_id=client_id,
client_secret=client_secret))

现在已经设置了Spotify客户端,准备进入智能体编排部分。

2.2 自定义工具类

LangChain智能体需要访问工具,这些工具将使它们能够与外部数据源一起工作。有许多内置工具,如Wikipedia,只需在LangChain中指定包即可,如下所示:

from langchain_community.tools import WikipediaQueryRun
from langchain_community.utilities import WikipediaAPIWrapper

目前,还没有与Spotify API的原生集成,因此需要从BaseTool类继承并构建一个Spotify工具,然后将其交给我们的智能体。

我们定义一个扩展了BaseTool类的Spotify工具:

from langchain.tools import BaseTool, StructuredTool, tool
class SpotifyTool(BaseTool):
    name = "Spotify音乐推荐器"
    description = "当被要求提供音乐推荐时使用此工具。"

请注意,我们提供了何时使用此工具的描述,这允许LLM使用自然语言理解来推断何时使用该工具。我们还提供了工具应该期望的输入的模式。在这种情况下,指定了两个参数:

  • 艺术家:感兴趣的艺术家列表,基于此,LLM将推荐该艺术家的更多热门曲目。
  • 曲目数量:想要显示的建议曲目数量。
from langchain.pydantic_v1 import BaseModel, Field

# 模式
class MusicInput(BaseModel):
    artists: list = Field(description="他们想要看到音乐的艺术家列表")
    tracks: int = Field(description="他们想要返回的曲目/歌曲数量。")

class SpotifyTool(BaseTool):
    name = "Spotify音乐推荐器"
    description = "当被要求提供音乐推荐时使用此工具。"
    args_schema: Type[BaseModel] = MusicInput # 定义模式

现在已经了解了LLM在提示中应该寻找的输入,可以定义一些不同的方法来使用Spotipy包:

# 实用工具
  @staticmethod
  def retrieve_id(artist_name: str) -> str:
      results = sp.search(q='artist:' + artist_name, type='artist')
      if len(results) > 0:
          artist_id = results['artists']['items'][0]['id']
      else:
          raise ValueError(f"未找到此名称的艺术家:{artist_name}")
      return artist_id

  @staticmethod
  def retrieve_tracks(artist_id: str, num_tracks: int) -> list:
      if num_tracks > 10:
          raise ValueError("每位艺术家只能提供最多10首曲目")
      tracks = []
      top_tracks = sp.artist_top_tracks(artist_id)
      for track in top_tracks['tracks'][:num_tracks]:
          tracks.append(track['name'])
      return tracks

  @staticmethod
  def all_top_tracks(artist_array: list) -> list:
      complete_track_arr = []
      for artist in artist_array:
          artist_id = SpotifyTool.retrieve_id(artist)
          all_tracks = {artist: SpotifyTool.retrieve_tracks(artist_id, 10)}
          complete_track_arr.append(all_tracks)
      return complete_track_arr

这些方法本质上是获取检索到的艺术家,并返回这些艺术家的顶级曲目。请注意,目前Spotipy API只能检索到前10首曲目。

然后我们定义了一个主执行函数,其中获取所请求艺术家的所有顶级曲目,并解析在我们的提示中请求的曲目数量:

# 主执行函数
def _run(self, artists: list, tracks: int) -> list:
    num_artists = len(artists)
    max_tracks = num_artists * 10
    all_tracks_map = SpotifyTool.all_top_tracks(artists)  # 艺术家与前10首曲目的映射
    all_tracks = [track for artist_map in all_tracks_map for artist, tracks in artist_map.items() for track in tracks]  # 完整的曲目列表

    # 每个艺术家只有10首曲目
    if tracks > max_tracks:
        raise ValueError(f"每个艺术家只有10首曲目,这么多艺术家的最大曲目数是:{max_tracks}")
    final_tracks = random.sample(all_tracks, tracks)
    return final_tracks

如果希望在API中加入额外的功能(构建自己的播放列表),可以在该工具本身中定义这些额外的方法。

2.3 智能体创建与调用

虽然已经定义了智能体需要的输入/输出规范,但我们必须定义LLM,它是操作的大脑。

在这种情况下,使用Anthropic Claude通过Amazon Bedrock:

from langchain.llms import Bedrock
model_id = "anthropic.claude-v2:1"
model_params = {
    "max_tokens_to_sample"500,
    "top_k"100,
    "top_p".95,
    "temperature".5
}
llm = Bedrock(
    model_id=model_id,
    model_kwargs=model_params
)

# Bedrock推理示例
llm("美国的首都是什么?")

然后可以实例化工具类,并将这个与LLM一起创建我们的智能体。注意,指定智能体类型为ReAct,根据您使用的智能体类型需要进行调整。

from langchain.agents import initialize_agent, Tool
from langchain.agents import AgentType

tools = [SpotifyTool()]
agent = initialize_agent(tools, llm,
                          agent=AgentType.STRUCTURED_CHAT_ZERO_SHOT_REACT_DESCRIPTION, verbose=True)

智能体构建完成之后,可以运行一个样本推理(随机混合艺术家),并看到我们已经启用的详细输出的思考链。

print(agent.run("""我喜欢以下艺术家:[Arijit Singh, Future, The Weeknd],我可以得到包含他们的12首歌曲推荐。"""))

请注意,智能体特别寻找我们指定用于使用此工具的两个参数,一旦它识别了这些参数,就能够采取逻辑上的行动,并正确执行推理,使用我们提交的值。

3 结语

智能体的力量在于你可以决定可以检索的后端功能。在这个示例中,我们只是检索艺术家的顶级曲目,但可以通过在你的工具中添加适当的API调用来扩展此示例,以直接在你的Spotify账户中创建播放列表。对于更现实或个性化的用例,也可以使用RAG让智能体访问自己的数据/音乐,并让它从那里获取的建议。

推荐书单

《LangChain技术解密:构建大模型应用的全景指南》

本书共10章,分别介绍了LangChain的开发环境搭建、模型、提示、数据连接、链、记忆、代理、回调及周边生态等内容,并用三个案例,即基于Streamlit实现聊天机器人、基于Chainlit实现PDF问答机器人、零代码AI应用构建平台Flowise,将前面大语言模型的内容学以致用。通过本书,读者既能提升自身的技术素养,又能拓展自己解决实际难题的能力。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询