17611538698
webmaster@21cto.com

萨姆·奥特曼:AI并不完全可靠;德国要求将DeepSeek下架;腾讯开源基于MoE架构的大语言模型...

资讯 0 13 1天前
OpenAI CEO警告:不要过度信任人工智能 其本身并不完全可靠

萨姆·奥特曼:AI并不完全可靠,要谨慎使用

OpenAI首席执行官萨姆·奥特曼近日接受采访时发出警示:尽管ChatGPT在全球范围内获得广泛认可,但用户对其毫无保留的信任态度值得警惕。

"最让我惊讶的是人们如此轻易地相信ChatGPT给出的答案,"奥特曼坦言。尽管这款AI聊天机器人已被广泛应用于教育辅导、学术研究甚至育儿建议等关键领域,但其本身并不完全可靠。奥特曼特别强调了一个关键技术局限:"AI会产生'幻觉',这意味着它可能自信地给出完全错误或误导性的信息。"

自2022年11月发布以来,ChatGPT凭借其卓越的自然语言处理能力迅速风靡全球。但随着应用场景的不断扩展,关于其准确性、偏见和潜在风险的争议也日益凸显。

奥特曼提醒所有用户,在使用这类生成式AI工具时必须保持批判性思维,对输出内容进行必要验证。

在谈及产品发展时,奥特曼透露了ChatGPT即将推出的重要更新,包括"持久记忆"功能——允许系统记住用户的对话历史,以及可能引入的广告商业模式。这些创新虽然能提升用户体验和商业可持续性,但也将带来新的隐私保护和数据安全挑战。

德国称DeepSeek将数据传至中国,要求苹果与Google将其下架

图片

一名德国数据保护专员Meike Kamp上周五(6/27)表示,由于中国AI聊天机器人DeepSeek违法将使用者资料传送至中国,已要求当地的Google Play与App Store将该应用下架。

DeepSeek是2023年7月于中国杭州创立的AI新创企业,并在2025年1月发表同名的聊天机器人,同时发布支持Android及iOS的应用程序。

Kamp说,虽然DeepSeek并未于德国设立分公司或办公室,但提供德语版,应受《欧盟通用资料保护规则》(GDPR)的约束;另一方面,DeepSeek服务自称处理大量的使用者个人资料,包括所有的文字输入、聊天纪录、上传的文件,以及使用者所在位置、所使用的装置及网路资讯。该服务还将所搜集的个人资料传至中国处理端,并将它们存放在位于中国的服务器上。

依据GDPR的规定,就算要将个人资料转移至其它国家,也必须维持欧盟的高资料保护标准,Kamp指出,DeepSeek并未证明德国用户存放在中国的资料,所受到的保护程度与欧盟相当,而且政府拥有向公司获取个人数据的广泛权利,再加上位于中国的用户资料无法受到欧盟法令的保障,因而要求两大应用商店封锁DeepSeek。

这并非Kamp第一次采取行动。他说,在意识到DeepSeek违反GDPR之后,他在5月6日便要求DeepSeek自行从德国应用商店下架,而且不再将用户资料传送至中国,但DeepSeek并未遵守,使得他在6月27日才转向苹果与Google投诉。

腾讯开源基于MoE架构的大语言模型

图片

腾讯近日宣布开源混元大模型家族的新成员 —— 混元 - A13B 模型。该模型采用基于专家混合(MoE)架构,总参数规模达 800 亿,激活参数为 130 亿。

据其公告称,该模型在保持顶尖开源模型效果的同时,大幅降低了推理延迟与计算开销。对个人开发者和中小企业来说,极端条件下仅需 1 张中低端 GPU 卡即可部署。

在性能表现上,混元 - A13B 模型在数学、科学和逻辑推理任务中展现出领先效果。例如,在数学推理测试中,模型能够准确完成小数比较并展现分步解析能力。对于时下热门的智能体(Agent)应用,模型可调用工具,高效生成出行攻略、数据文件分析等复杂指令响应。

混元-A13B的主要功能如下:


  • 低资源部署:混元-A13B采用专家混合(MoE)架构,仅需1张中低端GPU卡即可部署,大幅降低了推理延迟与计算开销,适合资源有限的个人开发者和中小企业。

  • 数学与逻辑推理:在数学推理任务中表现出色,例如能准确比较小数大小并提供分步解析,在科学和逻辑推理任务中也展现出领先效果。

  • 快思考模式:适合简单任务,提供简洁高效的输出,追求速度和最小计算开销。

  • 慢思考模式:适合复杂任务,涉及更深、更全面的推理步骤,兼顾效率和准确性。

  • 智能体(Agent)应用:能调用工具,高效生成出行攻略、数据文件分析等复杂指令响应,满足多样化需求。

  • 代码评估与优化:通过开源的ArtifactsBench数据集,支持代码生成、调试和优化等任务,提升编程效率。

  • 智能问答:支持自然语言处理任务,如文本生成、问答系统等,为用户提供准确且有帮助的信息。

  • 开源支持:模型代码已在GitHub开源,用户可以自由下载、修改和使用,促进社区共享和技术创新。

  • API接入:模型API已在腾讯云官网上线,方便开发者快速接入,实现更多应用场景的开发。


混元-A13B的技术原理:


  • 专家混合(MoE)架构
    混元-A13B采用MoE架构,总参数量为800亿,激活参数为130亿。通过为每个输入选择性地激活相关模型组件,大幅降低了推理延迟与计算开销,使模型在极端条件下仅需1张中低端GPU卡即可部署。与同等规模的密集模型相比,MoE架构在推理速度和资源消耗上更具优势。
  • 预训练与数据集
    在预训练阶段,混元-A13B使用了20万亿高质量网络词元语料库,覆盖多个领域,显著提升了模型的通用能力和推理上限。腾讯混元团队完善了MoE架构的Scaling Law理论体系,为模型设计提供了可量化的工程化指导,进一步提升了预训练效果。
  • 多阶段训练与优化
    在后训练环节,混元-A13B采用了多阶段训练方式,提升了模型的推理能力,同时兼顾了创作、理解、Agent等通用能力。模型支持256K原生上下文窗口,在长文理解和生成任务中表现出色

混元-A13B的项目地址:


  • Github仓库
    https://github.com/Tencent-Hunyuan/Hunyuan-A13B
  • HuggingFace模型库
    https://huggingface.co/tencent/Hunyuan-A13B-Instruct


此外,混元还开源了两个新的数据集。其中,ArtifactsBench 主要用于代码评估,构建了一个包含 1825 个任务的新基准;C3-Bench 针对 Agent 场景模型评估,设计了 1024 条测试数据,以揭示模型能力的不足。

Google 推出 Data Commons 的 Python 客户端库

图片

Google 发布了其Python客户端库第 2 版,用于查询Data Commons平台,该平台负责整理全球公开的统计数据。该库支持自定义实例等功能。

Data Commons Python 库于 6 月 26 日发布,可用于探索 Data Common 知识图谱并从 200 多个数据集中检索统计数据。可用领域包括人口统计、经济、教育、环境、能源、健康和住房。开发人员可以使用该库的自定义实例以编程方式查询任何公共或私有实例,无论这些实例托管在本地还是 Google Cloud Platform 上。据 Google 称,开发人员可以使用自定义实例将专有数据集与 Data Commons 知识图谱无缝集成。

Google还表示,基于 V2 REST API,版本 2 中的 Data Commons Python 库支持将Pandas数据框 API 作为集成模块,单个安装包即可与同一客户端中的其他 API 端点无缝使用。API 密钥管理和其他有状态操作内置于客户端类中。与Pydantic库的集成提高了类型安全性、序列化和验证。此外,还支持多种响应格式,包括 JSON 和 Python 字典。使用该库,开发人员可以将其他数据集中的实体映射到 Data Commons 中的实体。Data Commons Python API 客户端库托管在 GitHub 上,并可在pypi.org上获取。

GitHub地址请见:

https://github.com/datacommonsorg/api-python/tree/master/datacommons_client

作者:洛逸

评论