微信扫码
与创始人交个朋友
我要投稿
firecrawl 是什么
FireCrawl是一款创新的爬虫工具,它能够无需站点地图,抓取任何网站的所有可访问子页面。与传统爬虫工具相比,FireCrawl特别擅长处理使用JavaScript动态生成内容的网站,并且可以转换为LLM-ready的数据。
此外,它还提供了一个易于使用的API,让开发者能够轻松实现内容的爬取和转换。
可以先通过FireCrawl 提供的playground来快速体验下。
最简单的情况下,只需要填一个URL就可以,firecrawl会抓取到相关的内容,还可以通过LLM来提取信息。使用firecrawl的在线服务是需要付费的,免费的只有500credit,所以接下来我们看下如何自己本地运行。
本地运行
项目的介绍中说了,目前还在早期阶段,不建议自己部署,如果想要跑可以源码启动。首先需要准备本地的环境:
nodejspnpmRedis
然后在 /apps/api/ 下建一个 .env文件,可以从.env.example拷贝一个,.env.example中包括了项目可以使用的各种配置,内容很多。如果只是本地最简单运行的话,内容参考如下:
# ===== Required ENVS ======
NUM_WORKERS_PER_QUEUE=8
PORT=3002
HOST=0.0.0.0
REDIS_URL=redis://localhost:6379
## To turn on DB authentication, you need to set up supabase.
USE_DB_AUTHENTICATION=false
之后就是安装依赖。
pnpm install
接下来启动项目,这里启动需要涉及3个部分的内容。
启动Redis,在项目目录下打开一个终端,之后启动Redis即可
redis-server
启动worker,worker是具体执行爬虫任务的,在项目的 /apps/api/ 路径下,执行命令:
pnpm run workers
启动主服务,还是在项目的 /apps/api/ 路径下,执行命令
pnpm run start
到这里我们就在本地运行了firecrawl,可以向3002端口发个请求来确认服务已经运行
curl -X GET <http://localhost:3002/test>
也可以访问 http://0.0.0.0:3002/admin//queues ,查看firecrawl的管理后台。
使用 firecrawl
部署好了之后,我们就来详细看下如何使用吧。
scrape
首先我们可以通过REST API的方式向firecrawl发送指令,我们首先可以使用 /scrape 这个API来抓取一下他们自己公司的网站,使用如以下curl命令:
curl -X POST <https://api.firecrawl.dev/v0/scrape> \\-H 'Content-Type: application/json' \\-d '{"url": "<https://mendable.ai>"}'
当然也可以通过各种API工具来发送,使用体验会更好一些。
crawl
除了单个网页的抓取,firecrawl还可以抓取多个页面,使用/crawl API ,您给出要抓取的基本 URL,所有可访问的子页面都将被抓取。
curl -X POST <https://api.firecrawl.dev/v0/crawl> \\-H 'Content-Type: application/json' \\-d '{"url": "<https://mendable.ai>","pageOptions": {"onlyMainContent": true,"includeHtml": true,"screenshot": true,"waitFor": 5000},"crawlerOptions": {"includes": ["/blog/*", "/products/*"],"maxDepth": 3,"mode": "fast",}}'
在此示例中,爬虫将完成以下功能:
仅抓取与模式/blog/*,/products/*
和匹配的 URL。
跳过与模式/admin/* ,/login/*
和匹配的 URL。
返回每页的完整文档数据。
爬行至最大深度 3。
使用快速抓取模式。
最多抓取 1000 个页面。
/crawl 不会直接返回结果,发送命令后会返回对应任务的JobID,之后的任务是会在后台执行,可以在前面展示过的管理后台里查看任务的运行情况。
关于API的所有参数选项,可以到文档中查看。
结合大模型
首先 firecrawl 支持对抓取的内容进行大模型提取,利用大模型的能力,直接将抓取结果按预期进行格式化处理。如果想使用这个能力,首先要在.env里配置对应的API KEY。
我们在抓取的命令里,加入extractorOptions,参考如下:
"extractorOptions": {"mode": "llm-extraction","extractionPrompt": "Based on the information on the page, extract the information from the schema. ","extractionSchema": {"type": "object","properties": {"company_mission": {"type": "string"},"supports_sso": {"type": "boolean"},"is_open_source": {"type": "boolean"},"is_in_yc": {"type": "boolean"}},"required": ["company_mission","supports_sso","is_open_source","is_in_yc"]}}
这样再次执行后,可以看到结果的最后就会有提取的内容。
通过代码使用
除了这种方式以外,还可以通过代码的方式来使用firecrawl,目前支持
Python SDK
Node SDK
Langchain Integration ??
Llama Index Integration ?
Langchain JS Integration ??
使用代码的方式会有更多的灵活性,可以更加方便的和自己的程序集成起来。下面是一个简单的例子,我用node sdk为例,先要安装:
npm install @mendable/firecrawl-js
然后就可以在代码中使用了
const crawlUrl = '<https://example.com>';const params = {crawlerOptions: {excludes: ['blog/'],includes: [], // leave empty for all pageslimit: 1000,},pageOptions: {onlyMainContent: true}};const waitUntilDone = true;const timeout = 5;const crawlResult = await app.crawlUrl(crawlUrl,params,waitUntilDone,timeout);
这里需要说的,默认情况下,官方的SDK中使用的是https://api.firecrawl.dev/ 的在线服务,如果你觉得没问题,那需要去网站上申请API key。
如果你想要使用自己本地启动的服务,那需要自己去修改一下SDK的实现,相关的代码在项目中都开了,大概在这里。
自己把相关内容修改一下,然后自己使用就可以了。
举个栗子
另外还有一些比较不错的玩法,比如使用 firecrawl 的 /search API来信息收集,之后快速转换成LLM-ready的数据。
首先 search的内容大概是这样的。
import FirecrawlApp from '@mendable/firecrawl-js';
//这里的API key根据自己需要了
const app = new FirecrawlApp({ apiKey: 'YOUR_API_KEY' });
const params = {
searchOptions: {
limit: 5,
},
pageOptions: {
fetchPageContent: false
}
};
// Perform a search
const result = await app.search('What is firecrawl?');
会拿到类似这样一个结果。
剩下就不一步步实现了接下来就简单说下思路:
我们可以针对返回的结果,再对每一个URL使用 /scrape
配置参数用上之前的llm-extraction,就可以对每一个结果抓取数据并提炼内容
再把提炼的结果存下来,比如存到存到向量数据库中
接下来这就可以作为LLM的辅助信息来使用了
总结
整体来说firecrawl的可玩性确实非常高,在AI和大模型的时代,给爬虫这个传统工具提供了一个非常有意思的新发展思路。如果你也感兴趣,可以自己动手来玩一玩,还是很有意思的。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-28
2024-04-26
2024-08-21
2024-04-11
2024-07-09
2024-08-13
2024-07-18
2024-10-25
2024-07-01
2024-06-17