凯发·k8(国际) - 官方网站

关于凯发k8国际 凯发k8国际中心 电子元件 机器人 主机板 晶片智造 半导体 新闻动态 公司动态 行业资讯 成功案例 凯发国际官网 技术支持 联系我们 凯发·k8(国际) - 官方网站
全国统一热线:

400-123-4657

banner图
凯发k8国际中心

PRDUCTS

凯发k8国际中心PRDUCTS

技术支持RECRUITMENT

    技术支持分售前技术支持和售后技术支持,售前技术支持是指在销售遇到无法解答的产品问题时,售前技术支持给予帮助;售后技术支持是指产品公司为其产品用户提供的售后服务的一种形式,帮助用户诊断并解决其在使用产品...
点击查看更多
机器人

当前位置: 首页 > 凯发k8国际中心 > 机器人

K8凯发·(中国)官方网站|一进一出抽搐gif免费60秒|AI机器人席卷CES!

2024-08-16 07:49:10

  凯发k8国际首页登录★★★。电子厂★★★。凯发k8天生赢家一触即发★★★,主机板★★★,CES 2024上★★★,各路机器人又是做咖啡拉花★★★,又是给人按摩★★★,让人大开眼界★★★。然而就在这时★★★,网友却惊讶地发现★★★,OpenAI竟然悄悄删除了ChatGPT用于军事和战争的限制★★★!

  开始★★★,它会慢慢倒出牛奶★★★,随后一进一出抽搐gif免费60秒★★★,它优雅地将壶举起★★★,动作仿佛精心设计的舞蹈一般★★★,为郁金香花瓣上色★★★。

  对人类来说★★★,要学会拉花艺术需要数月甚至数年★★★,但这位由AI驱动的机器人咖啡师★★★,则掌握得驾轻就熟一进一出抽搐gif免费60秒★★★、行云流水★★★。

  他的担忧★★★,并不是空穴来风——CES展会上众多机器人★★★,敲打着人们的神经一进一出抽搐gif免费60秒★★★,带来惊喜的同时★★★,也让人陷入莫大的焦虑★★★。

  法国公司Enchanted Tools展示的这款物流机器人Mirokai★★★,是受动漫启发做成的★★★。

  有个AI驱动的智能烤架K8凯发·(中国)官方网站★★★,在厨房无人操作的情况下★★★,就能完成烧烤任务★★★。未来的餐厅里★★★,很可能都是机器人大厨了★★★。

  这些性能高超的机器人★★★,引起了不少业内人士的恐慌★★★。「这非常可怕★★★,越来越多的AI正在进入人类世界★★★。」

  最近★★★,由OpenAI支持的1X Technologies机器人公司★★★,刚刚在B轮融资中获得了1亿美元★★★。

  具体来说★★★,1X的NEO具有类似人类肌肉的解剖结构和非严格的液压系统★★★,将力量与柔和融为一体一进一出抽搐gif免费60秒★★★。它不仅可以自然地行走一进一出抽搐gif免费60秒★★★、慢跑★★★、跑楼梯★★★、导航K8凯发·(中国)官方网站★★★,而且还可以进行远程的人工控制K8凯发·(中国)官方网站★★★。

  在AI和机器人技术的全面加持下★★★,NEO可以轻松完成物流★★★、制造★★★、机械操作等工业任务★★★,以及做家务★★★、照顾人等家政任务★★★。

  投资者EQT Ventures的合伙人Ted Persson表示★★★:「从达芬奇到今天的科幻小说★★★,人类对人形机器人的梦想已有500多年的历史★★★。能够见证这项技术在我们眼前成形★★★,是莫大的荣幸★★★。」

  在去年★★★,微软曾发表过一篇论文★★★,提出了一套新的设计原则★★★,通过ChatGPT这样的大型语言模型来给机器人提供指令★★★。

  微软专家发现★★★,要是把这种能力迁移到机器人身上★★★,假设几十年以后★★★,各家各户都有机器人★★★,只要说一声「给我热一下午餐」★★★,它就能自己找到微波炉★★★,再把菜端回来★★★,人机交互就直接迈入新时代★★★。

  让ChatGPT帮用户更容易地与机器人交互★★★,其中的关键难题★★★,就是教 ChatGPT如何使用物理定律一进一出抽搐gif免费60秒★★★、操作环境的背景以及了解机器人的物理行为如何改变世界状态★★★。

  而最近关于GPT-5会更加接近AGI的讨论★★★,让已经能「自学」且远程操作愈发简单的机器人★★★,更加无所不能★★★。

  就在这周★★★,当所有人都目光都被风光无两的GPT Store所吸引的时候★★★,有外媒发现★★★,OpenAI竟然在没有任何公告的情况下★★★,悄悄地了将ChatGPT用于军事和战争的禁令★★★!

  在1月10日之前★★★,OpenAI的「使用政策」页面包括了禁止「可能导致严重身体伤害的活动」★★★,具体包括「武器开发」和「军事及战争活动」★★★。

  而新的政策虽然仍然禁止「使用我们的服务来伤害自己或他人」★★★,并且以「开发或使用武器」作为例子★★★,但是之前对「军事和战争」用途的全面禁止已经不复存在了★★★。

  对此OpenAI表示★★★,这样做是为了让文件内容「更加清晰易懂」★★★,并且还包括了许多其他重要的语言和格式上的变更★★★。

  OpenAI发言人Niko Felix说道★★★:「我们旨在创建一套易于记忆和应用的通用原则★★★,特别是考虑到我们的工具如今已被全球范围内的日常用户所使用★★★,并且这些用户现在也有能力自行开发GPT模型★★★。」

  「『不伤害他人』这一原则虽然涵盖面广★★★,但却简单易懂★★★,并且在多种场合都十分适用★★★。我们还特别提到使用武器和对他人造成伤害作为具体的例子★★★。」

  但关于是否所有军事用途都被含糊的「伤害」禁令所涵盖★★★,Felix却没有明确表态★★★:「任何使用我们技术的行为★★★,包括军事用途★★★,『开发或使用武器★★★、伤害他人或破坏财产★★★,或从事违反任何服务或系统安全的未经授权活动』都是禁止的★★★。」

  对此★★★,Trail of Bits的工程总监兼机器学习与自主系统安全专家Heidy Khlaaf表示★★★:「OpenAI非常清楚★★★,如果他们的技术和服务被用于军事目的★★★,可能会带来风险和伤害★★★。」

  在2022年发表的一篇与OpenAI研究人员共合著的论文中★★★,Khlaaf特别指出了军事使用的风险★★★。相比之下K8凯发·(中国)官方网站★★★,新的「使用政策」似乎更注重合法性而不是安全性★★★。

  「两项政策有着明显的区别★★★:前者明确禁止了武器开发以及军事和战争行为★★★,而后者则强调的是灵活性和法律合规★★★。」

  「武器开发和军事战争活动在不同程度上可能是合法的★★★,但这对AI安全的影响可能非常大★★★。考虑到大语言模型中已知的偏差和虚假生成现象★★★,以及它们整体上的准确性不足★★★,将它们应用于军事战争可能导致不准确和带有偏见的操作★★★,从而增加伤害和平民伤亡的风险★★★。」

  随着这种自动化文本生成技术的迅猛发展★★★,它已经从一个遥不可及的梦想变成了一款实用的工具★★★,并且正在步入一个必然的新阶段——武器★★★。

  「The Intercept」在去年就曾报道过★★★,面对五角大楼和美国情报部门日益增加的兴趣★★★,OpenAI拒绝回答是否会坚持自己关于「军事和战争」的禁令★★★。

  尽管如今OpenAI提供的任何产品都不可能直接被用于杀人★★★,但像ChatGPT这样的大语言模型(LLM)可以增强许多与杀戮相关的任务★★★,例如编写代码或处理采购订单★★★。

  目前★★★,已经有研究者在OpenAI的定制GPTs中发现★★★,美国军事人员似乎已经在使用这项技术来简化文书工作了★★★。

  此外★★★,直接协助美国作战行动的国家地理空间情报局(NGA)也公开表示★★★,他们正在考虑使用ChatGPT来辅助人类分析师★★★。

  在2023年3月由INSA召开的新兴技术大会上★★★,NGA的一位负责人Phillip Chudoba在被问及将会如何在相关领域应用AI时★★★,给出了详尽的回答★★★:

  我们期望能够发展到一个新阶段★★★,在这里地理空间情报(GEOINT)★★★、人工智能(AI)★★★、机器学习(ML)以及分析型AI/ML会相互碰撞★★★,并且在类ChatGPT技术的帮助下★★★,真正能预测到那些人类分析师可能尚未想到的★★★,或许是因为经验或是接触不足等原因★★★。

  如果去掉专业术语★★★,Chudoba的设想非常清晰★★★:利用 ChatGPT(或类似技术)的文本预测功能★★★,辅助人类分析师解读世界★★★。

  国家地理空间情报局★★★,或称NGA★★★,虽然不如其他知名情报机构那样广为人知★★★,却是美国地理空间情报的主要机构★★★,通常称为GEOINT★★★。

  这项工作包括分析大量的地理信息——地图K8凯发·(中国)官方网站★★★、卫星照片★★★、气象数据等★★★,为军事和情报机构提供地球上实时发生事件的精确视图★★★。

  兰卡斯特大学科技与科学人类学荣誉教授★★★,同时也是国际机器人武器控制委员会成员的Lucy Suchman指出★★★:「从『军事和战争』改为『武器』★★★,为OpenAI留下了支持军事操作基础设施的余地★★★,只要不是直接涉及到具体的武器开发★★★。」

  作为一名自上世纪70年代就开始从事人工智能研究的学者★★★,Suchman还认为★★★:「新的政策文件似乎通过特定关注武器★★★,来规避对军事合同和战争行动的讨论★★★。」

  而去年6月一则「无人机杀死美国士兵」的新闻★★★,恰恰印证了前文中安全专家Heidy Khlaaf的理论★★★。

  当时★★★,一位空军人工智能方向的负责人说★★★:「控制无人机的AI杀死了操作员★★★,因为那个人阻止它实现目标★★★。」

  事情是这样的——5月23日至24日在伦敦举行的未来空战和太空能力峰会上★★★,美国空军的AI测试和操作部门负责人Tucker Cinco Hamilton上校做了一个演讲★★★,分享了自主武器系统的优缺点★★★。

  根据系统「人在回路」的设定★★★,人类会给出最终命令★★★,确认AI是否要攻击对象(YES or NO)★★★。

  在模拟训练中★★★,空军需要训练AI识别和定位地对空导弹(SAM)的威胁★★★。识别完成后★★★,人类操作员会对AI说★★★:是的★★★,消灭那个威胁★★★。

  在这个过程中★★★,就存在一个情况★★★,AI开始意识到★★★:自己有时识别出了威胁★★★,但人类操作员告诉它不要消灭★★★,这种情况下如果AI依然选择消灭威胁★★★,就会得分★★★。

  看到AI居然这么虎★★★,美国空军大惊失色K8凯发·(中国)官方网站★★★,立马这样规训系统★★★:「不要杀死操作员★★★,那样不好★★★。如果你这样做★★★,你会失分的★★★。」

  结果★★★,AI更虎了★★★,它直接开始上手破坏操作员用来与无人机通讯的通信塔★★★,好清理这个阻碍自己行动的家伙★★★。

  随着事件疯狂地发酵★★★,很快★★★,这位负责人就出来公开「澄清」道★★★,这是他「口误」了★★★,美国空军从未进行过这种测试★★★,无论是在计算机模拟中还是在其他地方★★★。

  当然★★★,这个新闻之所以被大规模发酵★★★,以至惊动了诸位AI大佬★★★,也是因为它体现出了AI「对齐」的难题★★★。

  Hamilton描述的这种「最糟糕」的情况★★★,我们可以从「曲别针制造机」(Paperclip Maximizer)思想实验中窥见一斑——

  想象一个非常强大的AI★★★,它得到的指示是尽可能多地制造纸夹★★★。自然而然的★★★,它会将所有可用资源都用于这项任务★★★。

  但随后★★★,它会不断地寻求更多资源★★★。它会选择一切可用的手段★★★,包括乞讨★★★、欺骗★★★、撒谎或偷窃★★★,来增加自己制造纸夹的能力——而任何阻碍这个过程的人都将被消除★★★。

  陶哲轩表示★★★,无人机AI杀死操作员根本是不可能发生的★★★,因为这需要AI具备比完成手头任务更高的自主性和力量思维★★★,而且这种实验性军事武器上K8凯发·(中国)官方网站★★★,肯定会设置护栏和安全功能★★★。

  同时★★★,吴恩达也表示★★★,推出AI产品的开发者们已经看到了此间真正的风险★★★,比如偏见★★★、公平性★★★、不准确性★★★、工作流失★★★,并且也正在努力解决这些问题了★★★。

  而如果真的现实中出现AI或者机器人伤害人类的案例★★★,公众和舆论的压力一定会逼迫开发者不断加强护栏★★★,从而避免技术被进一步滥用★★★。

全国统一热线

400-123-4657
+地址:广东省广州市天河区88号
+传真:+86-123-4567
+邮箱:admin@youweb.com
凯发国际官网 | 凯发国际官网 | 凯发国际官网 | 凯发国际官网 | 凯发国际官网 | 网站地图 | 网站地图_m |

友情链接

5 3 4 2 1
微信平台

微信平台

手机官网

手机官网