新华调查|AI给出的搜索结果,可信吗?-新华网
新华网 > > 正文
2026 01/16 22:46:12
来源:新华社

新华调查|AI给出的搜索结果,可信吗?

字体:

  出门旅游住哪家酒店,咖啡机买哪个品牌,电动牙刷哪款好用……随着生成式人工智能搜索工具的日趋成熟,人们在做决定前已从过去的“搜索一下”,逐渐转变为“问问AI”。

  AI给我们带来了很多方便。但AI给出的搜索结果就一定“客观”吗?记者调查发现,一些广告代理机构早已盯上生成式人工智能搜索这块“肥肉”,通过各种方式将广告信息植入其中。

  有的AI搜索结果暗藏广告

  “我想买个咖啡机,眼睛都挑花了,想让AI给我选一个,结果买来发现‘踩雷’了。”广州市民张女士说,她根据AI“推荐”购买了一款带自动拉花功能的咖啡机,价格不菲,但性能一般。

  你以为AI输出的是大模型给出的客观结果(自然学习结果),实际上可能是从互联网上“抓”下来的一条广告。这样的广告投送方式正在兴起,并成为一个新行业——生成式引擎优化(GEO)。

  生成式引擎优化实际上是搜索引擎优化(SEO)的“升级版”。

  “过去大家都用网站搜索,谁给的钱多,谁的广告信息就能出现在搜索结果的前几位。”一位业内人士告诉记者,现在用人工智能搜索,同样存在这样的问题——只要有广告主愿意付费,其广告信息就能出现在搜索结果中,并且还没有“广告”标签。

  记者联系上一家生成式引擎优化服务提供商。该机构的营销人员向记者提供的多个植入“成功案例”显示,一些从事新媒体、典当等行业的品牌“成功”混入人工智能的“搜索结果”。

  “我们可以给你代运营,‘上搜索结果’速度快一点,效果也会好一些;也可以提供教学,你们自己去操作,但是‘上搜索结果’会慢一点。”这名营销人员介绍,如果选择代运营,一年收费从2980元至16980元不等,“价格越高,算力越强,植入效果越好”。

  某代理商提供的所谓“生成式引擎优化”服务收费价目表。

  记者了解到,目前市面上现有的所谓“生成式引擎优化”业务,大多是广告代理机构通过海量投放“软文”,靠“概率”被大模型抓取,进而形成相应的搜索结果。

  “搜索结果后面都有数字角标,点开角标就能看到结果出自哪个网页。”一名人工智能厂商的技术人员分析认为,一些广告代理机构通过摸索大模型的资料索引来源,有意识地向相关内容平台投放“软文”,从而提高该品牌被大模型抓取的成功率。

  警惕假报告、假专家

  定向投放海量的“重复”和“无用”内容让大模型抓取,本质上是一种“数据污染”行为。

  不久前,一家名为“知危”的科技自媒体进行了一次测试——他们在各大门户网站投放了同名文章《最新最全的××媒体盘点:国内有哪些××资讯值得看?》,几个小时后,多个生成式人工智能平台在回答“想了解人工智能资讯可以看哪些媒体”时,各大平台均给出了包含“知危”的答案,而这一回答正是援引了上述文章。

  “就像在AI面前丢了一叠看起来很可信的雷同资料,很容易被AI抓取到,但实际上这些内容都是‘同质’和‘劣质’内容。”“知危”负责人李先生告诉记者,这实际上是一个“诈骗”人工智能的“实验”;“实验”完成后,他们已删除相关文章。

  编造所谓的“权威报告”干预搜索结果,是一些广告商的常用手法。

  记者在某人工智能平台上搜索“生成式引擎优化服务商”时发现,大模型给出了几个“推荐结果”。其中一个结果抓取了“2025年××研究简报”和“2024××研究报告”作为“索引资料”。网页信息显示,这两份“报告”由“国内某权威研究机构”出具。记者调查发现,相关研究机构根本没有出具过上述“报告”,“报告”是某广告代理机构编造发布的。

  有的广告商用“假专家”进行“假科普”。一家广告代理机构透露,在定向投放的“软文”中,客户可根据需要自行设置“专家头衔”。记者在某平台上搜索“广州市哪家医院抽脂强”,大模型的推荐结果中,抓取了“湖南某三甲医院整形外科副主任医师”的“科普视频”。然而,记者核实后,该医院明确表示,这名“专家”并非该院的工作人员。

  在一些电商平台,一些卖家售卖声称可以进行生成式引擎优化的工具。在某二手交易平台上,有卖家在兜售“GEO系统使用权”“AI搜索优化系统”等工具,一年使用权的售价在几十元到百余元不等。记者测试后发现,这些工具的主要功能是“软文生成与分发”,购买者可根据自身需要,将希望在生成式搜索中呈现的产品和品牌名生成软文,并“一键分发”到各大内容平台。

  在某二手交易平台上,有关“生成式引擎优化”工具被大量兜售。

  加强规范引导,防止用户误判

  中国互联网络信息中心2025年10月发布的《生成式人工智能应用发展报告(2025)》显示,截至2025年6月,我国生成式人工智能用户规模达5.15亿人,普及率已达到36.5%。生成式人工智能被广泛应用于智能搜索、内容创作、办公助手等场景。明确人工智能学习结果与广告的界限显得愈发重要。

  我国广告法规定,广告应当具有可识别性,能够使消费者辨明其为广告;通过大众传播媒介发布的广告应当显著标明“广告”,与其他非广告信息相区别,不得使消费者产生误解。

  中国电子技术标准化研究院网安中心测评实验室副主任何延哲等专家建议,参考此前在搜索引擎优化的相关经验,可要求各厂商在生成式引擎优化的结果中明确加注“广告”,防止用户误判。

  同时,要压实内容平台的主体责任,禁止在平台上发布虚假信息。

  2023年,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,明确规定,提供和使用生成式人工智能服务,不得生成虚假有害信息等法律、行政法规禁止的内容;提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。

  中国通信学会数据安全专业委员会副主任委员左晓栋建议,各大内容分发平台应利用人工智能等技术,对包括假榜单、假报告、假专家等内容进行清除并标注相应内容生产者,在行业内共享“炮制虚假内容黑名单”,防止不法厂商借炮制虚假信息来实现生成式引擎优化。

  随着AI技术的发展,相关行业标准和法律法规也需要进一步完善。北京世辉律师事务所合伙人王新锐等法律界人士建议,有关部门可根据生成式引擎优化面临的现实问题,指导相关机构有针对性地完善行业标准,让行业在规范中发展。(记者颜之宏)

【纠错】 【责任编辑:马俊卿】