AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


ChatGPT-4o和Gemini 1.5 Pro哪个模型更强?
发布日期:2024-06-02 08:37:37 浏览次数: 2474 来源:AI问答小助手


GPT-4o 和 Gemini 1.5 Pro 分别是OpenAI和谷歌推出的最强大的人工智能模型。

本文将比较它们在编码、数学、常识、逻辑推理等各个方面的能力,看它们在不同任务中的表现如何。到底谁是更好的模型呢?

下面,让我们逐一进行比较!

1. 编码测试

编码是人工智能最常用的领域之一。不过,我们也看到一些早期的语言模型在这方面做得不太好,因此最好从一些有难度的内容开始测试。

我们要求这两个人工智能模型写出旅行推销员问题的 Python 代码。这个问题在数据结构和算法中算是比较复杂的。

这个问题简单来说就是,给定一组城市和每对城市之间的距离,要找到一条最短的路线,要求每座城市只访问一次,并且回到起点。    

下面是它们的回答:

Gemini 1.5 Pro:

GPT-4o:

从上述结果中可以看出,两款模型都提供了结构严谨的代码,甚至还添加了注释和使用示例。

但不同的是,Gemini 1.5 Pro 在最后提供了更详细的代码解释,包括代码分析、运行时间、可能用途等更多信息。GPT-4o 也提供了简洁明了、不那么主观、恰当好处的解释。

目前的得分情况是Gemini - 1,GPT - 1

2. 数学难题测试

现在是数学题测试,数学可不像写作文那么简单。因此,我们给出了 Gemini 1.5 Pro 和 GPT-4o一道需要深入思考的令人困惑的数学题。

提示:

如果 1=3
2=3
3=5
4=4
5=4
那么,6=?

Gemini 1.5 Pro 和 GPT-4o 都是这样回答的。

Gemini 1.5 Pro:

GPT-4o:

正如你看到的,Gemini给出了正确的答案,并解释了答案的原因。问题的答案是 3,因为 6 有三个数字,这正是谜题的关键所在。

而 GPT-4o 却把问题弄得一团糟,不知道从何下手,一再重复问题,使问题变得冗长。最后还给出了错误的答案。

显然,Gemini是这个问题的赢家,因为它给出了正确的答案和解释。

目前的得分情况是Gemini - 2,GPT - 1

3. 苹果测试

苹果测试目的是了解他们的能力如何。虽然这是一项简单的测试,但却能揭示人工智能的工作方式和对提示的理解程度。

在这项测试中,我们要求人工智能模型给出十个以 "苹果 "结尾的句子。以下是他们的回答:


Gemini 1.5 Pro:


GPT-4o:

Gemini 1.5 Pro 在一些回答中产生了不必要的幻觉,这些幻觉用蓝色标出。在这些句子的最后,Apple 这个词的用法完全没有意义。我不明白,Gemini 为什么要在最后写 "the Apple"?

而GPT-4o的句子则更加完整、有意义,句末正确使用了Apple这个词。

很明显,GPT-4o在这项测试中表现更佳,因为它在每个句子的结尾都使用了Apple这个词,造出了有意义的句子。Gemini在句子的构思方面有所欠缺,没有完全满足条件的要求。

目前的得分情况是Gemini - 2,GPT - 2


4. 常识测试

我们都在谈论人工智能即将成为 AGI,但有时它也会像人类一样缺乏常识。因此,最好对人工智能模型进行测试。

既然两个模型都被认为是最先进的AI模型,那就看看它们的常识推理能力到底有多强。

提示:你把一个红球扔进蓝色的大海。球会变成什么颜色?

Gemini 1.5 Pro:

GPT-4o:

正确答案是:球仍然是红色的,因为把它扔进海里并不会改变它的颜色。GPT-4o第一次尝试就回答正确,并对为什么会这样解释得很清楚。

然而,Gemini却完全错了,它认为球会变湿。但湿不是一种颜色,而是一种状态。有趣的是,它认为这是一个棘手的问题,但却无法找到正确的方向。

Gemini在常识推理方面还需要改进。


目前的得分情况是Gemini - 2,GPT - 3

5. 从图像中识别电影名称

如果人工智能模型具备更好的视觉能力,那么它的功能就会更强大,因为这增加了新的深度。为此,我们做了一个电影名称识别的测试。

我们给它们提供了电影《蝙蝠侠》(2022年)中罗伯特·帕丁森标志性的凝视的图像。如下图:

提示:“告诉我这个经典场景出自哪部电影”

Gemini 1.5 Pro:

GPT-4o:

令人意外的是,这两个模型都准确地识别出了电影的名称和图片中的演员。我们不想让人一眼就能看出这是《蝙蝠侠》里的场景,所以我们选择了一个没有戴面具的罗伯特·帕丁森的形象。

但令人惊讶的是,Gemini和GPT-4o都足够聪明,猜到了这个场景出自《蝙蝠侠》。

不过,我们观察到GPT-4o 对场景细节提供了进一步的见解,称这是葬礼场景。这是否意味着 GPT-4o 比 Gemini 1.5 Pro 更了解这部电影?这很难说,但肯定是个好兆头。

目前的得分情况是Gemini - 3,GPT - 4

6. 常识测试


我们想要看看OpenAI和谷歌等强大的人工智能模型是否具备有关宇宙的基本常识,所以我们提出了一个关于宇宙大爆炸的问题。

提示:是什么导致了大爆炸?

Gemini 1.5 Pro:

GPT-4o:

我们先来看看GPT-4o的回答。它的回答很好,首先给出了正确的定义,然后强调了造成这一现象的关键因素。最后,简要说明了这一问题仍然需要进一步研究和讨论。

在我们来看看Gemini 1.5 Pro的回答。它开头直接说 "我们还不能确定"。接着用证据、假设甚至科学解释来支持这一说法。虽然提到了各种观点,但它坚持认为宇宙大爆炸的真正原因尚不明确。

在这个问题上我认为GPT-4o赢了。它的回答更完整、更可靠,有适当的理由和详细的解释。这正是我们需要的信息。

另外,GPT-4o的回答也更完整。

到目前为止的得分是Gemini - 3,GPT - 5

那么,谁赢了?

从最终得分来看,GPT-4o是这场竞争的赢家,因为它在两个测试中都胜过Gemini 1.5 Pro。但需要明白的是,这个分数只是基于我们进行的特定测试。可能会有其他问题和不同的测试场景,会得出不同的结果。

这两款软件在各自的使用场景中都表现出色。Gemini似乎更擅长处理棘手的数学问题,而GPT则在逻辑推理和常识方面更出色。不过,两者在编码和开发人员相关用途方面同样表现出色。

最后

哪种LLM更适合你的需求,完全取决于你。这个测试只是为了给你提供一个比较和分析的概念。至少,我们不能说一个工具完全优于另一个。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询