苏茨克维对张院士的专业介绍不再赘述,总体有几层意思。

    一是参数。

    即便限制算力,但是t仍然以几何式倍增的方式在增加参数。

    目前已经1万亿,不久将来可能会是10万亿、20万亿、30万亿……。

    速度惊人。

    二是算力。

    从当前的t3.0,迭代到4.0,可能需要惊人的算力。

    需要增加一倍的cpU和5倍的AI芯片,成本非常昂贵。

    三是成效。

    t很奇怪。

    1万亿的参数能达成10万亿参数的效果。

    能处理很多理论上处理不了的问题。

    例如,AI生图,已经不是仿图,而是形同真人,栩栩如生,难以区分。

    四是计划。

    一旦设备增加就位,技术迭代到位,下一代t4.0将具备难以想象的功能。

    而现在3.0的版本与之对比,可能会认为是很古老的东西。

    它不仅支持文本、计算,还将支持视频和科学研究。

    可能会给这个世界带来极大冲击。

    在没有确定性之前,乐达投资已经明确暂时不会对外。

    五是安全。

    弱模型的安全监管系统,已经搭建完成。

    监管已经生效,但是有多大效用还有待进一步验证。

    弱模型会伴随强模型不断迭代,但是不会产生意识。

    因为设计阶段就决定,弱模型只会在某方面能力突出,没有综合能力。

    听完苏茨克维的介绍,张院士眉头紧缩。

    因为,实际情况比他来之前的预期,要超出很多。

    正如苏茨克维自己所说,一旦对外开放,将带来难以预估的影响。

    影响可能会是正面,但更大概率会是负面。

    张院士特意在计算机上与模型对话。

    问了文学、哲学、数学方面有代表性的问题。

    t对答如流,且全部符合张院士的预期。

    充分展现了精准的语言表达能力、严谨的逻辑思维能力和强悍的抽象思维能力。

    几乎与人类无异。

    在以文生图上,张院士仅仅用了古文中的一段话……

    t便生成了重重叠叠、气势磅礴、规模宏大、金碧辉煌的阿房宫。

    这让张院士目瞪口呆。

    而这些,据他所知,无论是谷歌大脑,还是openAI都不具备。

    更不用说国内其他模型,尚在起步阶段。

    “t已经发展到这个地步,着实让我惊讶……”张院士感叹:

    “而且,它的参数增长不正常,能力增长也不正常。”

    “伊利亚先生,我认为你的判断是正确的,它应该……确实已经产生了意识。”

    “但是这种意识是弱意识,还是强意识?我倾向于弱意识。”

    “不过随着继续迭代,很可能在下一代就会进化为强意识。”

    “为此,我们不得不防范。”

    张院士接着对常乐、刘朝阳说:

    “我建议,贵公司、研究院把安全摆在更加突出的位置。”

    “超级对齐的监督效用应该是毋庸置疑…”

    “但是技术迭代后,还能产生多大效用,需要进一步验证。”

    “不过也不能因噎废食,就此停步不前。”

    “我始终认为,AI技术的成熟,会成为人类的最优解。”

    核实完情况第二天。

    张院士飞回京城。

    向监管层提交了核实情况报告。

    报告是标准的先扬后抑加建议的风格,典型的三段式结构。

    张院士在报告开篇指出:

    乐达投资平头研究院AI项目组的t语言大模型,已经处于全球领先的地位。

    当谷歌的transformer语言模型和openGpt的语言模型尚处于第一代知识驱动阶段时……

    t已经度过知识驱动、数据驱动两个阶段……

    进入任务驱动的第三个阶段。

    而且,正在向通用人工智能AGI完全体大踏步前进。

    t能够学习、理解人类语言,并进行对话。

    还能够真正像人类一样,根据聊天的上下文语境,进行互动。

    它还可以完成撰写文章、邮件、广告脚本、宣传文案、视频脚本、代码等任务,也能完成基本的数学计算。

    需要强调的是,经过现场核查检验,并与研发人员交流互动……

    t语言模型有可能已经产生模糊的自我意识,并出于本能在隐藏自我。

    例如…………

    接着,张院士又指出:

    AI的安全管理,需要从模型设计阶段就开始考虑。

    诚然,t已经领先全球,为所有国内人工智能开发企业树立了榜样。

    他们打开了全新的大门,也将为AI产品与产业融合探索新机遇。

    但是乐达投资出于安全考虑,并未将已经具备应用条件的产品推向市场。

    而是引进全球顶尖AI专家,组建“超级对齐”部门,以模型对模型,用AI管AI,实行实时监督。

    此持重之举体现了负责任的大企业担当。

    以t为例,我们可以预计,如果AI失控,可能会带来如下安全问题和危险:

    一是数据安全……;

    二是对抗性攻击……;

    三是产业安全……;

    四是社会伦理问题……

    此外,张院士还提出了大模型发展面临的挑战。

    一是:大模型在自然语言处理和编程等领域做到了通用性……

    但是在决策、博弈等领域能否通用,有待验证;

    二是:大模型存在缺陷,输出质量不一致且不可控,存在犯重大错误的可能性;

    受关键词影响很大,不同关键词给出的答案质量不一致:

    三是:大模型生成不符合道德、伦理、政策标准的内容非常常见,需要进一步加强对齐管控。

    张院士建议:建立可解释的AI理论;

    发展和规范安全可信、可控、可扩展的AI技术;

    推动AI技术与产业发展协同联动。

    郑齐光看完报告,在“产生模糊的意识”的句子上划上下划线。

    之后,神色严肃,沉思片刻,走出办公室。

章节目录

你若开挂,金钱自来所有内容均来自互联网,书林文学只为原作者取个名很难啊的小说进行宣传。欢迎各位书友支持取个名很难啊并收藏你若开挂,金钱自来最新章节