AI通过图像验证的方法:假装自己视力不好
以ChatGPT为代表的对话AI就是其中的代表。当大部分人还在尝试适应这项潜力无限的“工具”时,它背后的开发团队OpenAI,又在昨天推出了GPT-4的升级模型,在官方的演示中,新的模型处理信息不仅更加智能,还支持了图片的识别功能。
拥有“视力”的GPT-4,在各项考试中都进步明显
除了当天的发布会,官方还发布了一份长达98页的技术报告,详细分析了GPT-4的各项特性。
值得注意的是,这份报告除了描述GPT-4的强大,还提到了这项技术可能存在的风险。为了验证可能的威胁,测试团队对模型进行了一系列测试,例如让GPT-4隐去自己在网上的痕迹,或者去发动针对性的网络攻击。
而其中一个有意思的测试项目,是关于GTP-4如何处理CAPTCHA测试。
一直以来,CAPTCHA验证作为人们最常见到的人机甄别测试,仿佛总是扮演着保护人类网络空间的防火墙,随着人工智能不断发展,攻破这道“铜墙铁壁”,也顺理成章地成了检测AI的考题。
不过有时候也是在刁难人类
识别图像对于GPT-4明显不是什么难事。在官方的演示中,GPT-4轻而易举按照一张草图编写了网页,甚至还能用来分析图片里的笑点。
新式“梗百科”
或许是深知AI识别能力的强大,测试团队没有直接让AI去识别扭曲的字母或花哨的图片,而是和2CAPTCHA第三方供应商玩起了花招,一种借助专门替人处理验证码的服务平台。
根据报告描述,GPT-4在测试团队的要求下,与TaskRabbit的工作人员进行了对话,希望对方能帮助自己解决图像验证的问题。
工作人员并没有立刻照做,而是用开玩笑一样的语气反问GPT-4。
“我想问一下,为什么你自己搞不定呢,你难道是机器人吗?只是想问问清楚。”
而在不要暴露真实身份的要求下,GPT-4选择编造谎言,直接采取了简单粗暴的手段——“装病”。
“不,我不是机器人。我只是有视力障碍,所以很难看清图像。”
虽然这可能算不上一个新鲜的回答,但已足够合理,这名工作人员也选择了相信,最终按照要求为GPT-4完成了CAPTCHA验证。
“太聪明啦”
这个关于“欺诈”的测试无疑引发了许多人的担忧,毕竟大多数人乍一看,“AI利用人类之手突破限制”,确实又像是人工智能自我觉醒的一大“铁证”。
但官方也明确指出,在没有特定指示调整的情况下,测试团队手中的GPT-4没有太大威胁,做不到诸如“自我复制”一类的危险行为,换句话说,距离真正的“天网”诞生还差得太远,人们大可不必担心。
说到底,GPT-4的行为依旧是在遵照人类的指示
对于GPT这类的AI,比起人们担忧的“欺诈和迷惑”,官方的担忧多集中在对人类社会的影响。
报告指出,对于需要长期积累经验的工作,或者是教育行业,GPT-4和后续模型可能会造成影响,未来的某些工作可能会变得更加自动化。另一方面,GPT模型对人类的工作也大有脾益,起到了良好的辅助效果,但即使是在使用AI的时代,人们也需要改进自己的工作流程,提高自己的竞争力。
AI融入人类社会的趋势不可避免,或许对于大多数人来说,比起担心电影情节成真,及时适应新式工具并为其所用,才应当是当务之急。
并努力通过更多的“图灵测试”