凯发k8国际中心PRDUCTS
- 凯发k8国际app|仙踪林19岁RAPPER潮水偷轨|23级江财软件工程总排名第
- k8·凯发(国际)|某天女孩喝醉了|三代半导体概念股都有哪些_什么是半导体 为什
- 凯发k8国际app下载益德EDAC-Q270主|丫头你忍忍我开始动了|板评测:受
- 一触即发|嘿嘿连载下载汅api免费旧版破解版|泰晶科技:10月28日召开董事会会
- k8凯发国际官方入口|三田爱|很逼线款美女机器人第一款出自中国最后一款售价10万
技术支持RECRUITMENT
K8凯发·(中国)官方网站|一进一出抽搐gif免费60秒|AI机器人席卷CES!
2024-08-16 07:49:10
凯发k8国际首页登录★★★。电子厂★★★。凯发k8天生赢家一触即发★★★,主机板★★★,CES 2024上★★★,各路机器人又是做咖啡拉花★★★,又是给人按摩★★★,让人大开眼界★★★。然而就在这时★★★,网友却惊讶地发现★★★,OpenAI竟然悄悄删除了ChatGPT用于军事和战争的限制★★★!
开始★★★,它会慢慢倒出牛奶★★★,随后一进一出抽搐gif免费60秒★★★,它优雅地将壶举起★★★,动作仿佛精心设计的舞蹈一般★★★,为郁金香花瓣上色★★★。
对人类来说★★★,要学会拉花艺术需要数月甚至数年★★★,但这位由AI驱动的机器人咖啡师★★★,则掌握得驾轻就熟一进一出抽搐gif免费60秒★★★、行云流水★★★。
他的担忧★★★,并不是空穴来风——CES展会上众多机器人★★★,敲打着人们的神经一进一出抽搐gif免费60秒★★★,带来惊喜的同时★★★,也让人陷入莫大的焦虑★★★。
法国公司Enchanted Tools展示的这款物流机器人Mirokai★★★,是受动漫启发做成的★★★。
有个AI驱动的智能烤架K8凯发·(中国)官方网站★★★,在厨房无人操作的情况下★★★,就能完成烧烤任务★★★。未来的餐厅里★★★,很可能都是机器人大厨了★★★。
这些性能高超的机器人★★★,引起了不少业内人士的恐慌★★★。「这非常可怕★★★,越来越多的AI正在进入人类世界★★★。」
最近★★★,由OpenAI支持的1X Technologies机器人公司★★★,刚刚在B轮融资中获得了1亿美元★★★。
具体来说★★★,1X的NEO具有类似人类肌肉的解剖结构和非严格的液压系统★★★,将力量与柔和融为一体一进一出抽搐gif免费60秒★★★。它不仅可以自然地行走一进一出抽搐gif免费60秒★★★、慢跑★★★、跑楼梯★★★、导航K8凯发·(中国)官方网站★★★,而且还可以进行远程的人工控制K8凯发·(中国)官方网站★★★。
在AI和机器人技术的全面加持下★★★,NEO可以轻松完成物流★★★、制造★★★、机械操作等工业任务★★★,以及做家务★★★、照顾人等家政任务★★★。
投资者EQT Ventures的合伙人Ted Persson表示★★★:「从达芬奇到今天的科幻小说★★★,人类对人形机器人的梦想已有500多年的历史★★★。能够见证这项技术在我们眼前成形★★★,是莫大的荣幸★★★。」
在去年★★★,微软曾发表过一篇论文★★★,提出了一套新的设计原则★★★,通过ChatGPT这样的大型语言模型来给机器人提供指令★★★。
微软专家发现★★★,要是把这种能力迁移到机器人身上★★★,假设几十年以后★★★,各家各户都有机器人★★★,只要说一声「给我热一下午餐」★★★,它就能自己找到微波炉★★★,再把菜端回来★★★,人机交互就直接迈入新时代★★★。
让ChatGPT帮用户更容易地与机器人交互★★★,其中的关键难题★★★,就是教 ChatGPT如何使用物理定律一进一出抽搐gif免费60秒★★★、操作环境的背景以及了解机器人的物理行为如何改变世界状态★★★。
而最近关于GPT-5会更加接近AGI的讨论★★★,让已经能「自学」且远程操作愈发简单的机器人★★★,更加无所不能★★★。
就在这周★★★,当所有人都目光都被风光无两的GPT Store所吸引的时候★★★,有外媒发现★★★,OpenAI竟然在没有任何公告的情况下★★★,悄悄地了将ChatGPT用于军事和战争的禁令★★★!
在1月10日之前★★★,OpenAI的「使用政策」页面包括了禁止「可能导致严重身体伤害的活动」★★★,具体包括「武器开发」和「军事及战争活动」★★★。
而新的政策虽然仍然禁止「使用我们的服务来伤害自己或他人」★★★,并且以「开发或使用武器」作为例子★★★,但是之前对「军事和战争」用途的全面禁止已经不复存在了★★★。
对此OpenAI表示★★★,这样做是为了让文件内容「更加清晰易懂」★★★,并且还包括了许多其他重要的语言和格式上的变更★★★。
OpenAI发言人Niko Felix说道★★★:「我们旨在创建一套易于记忆和应用的通用原则★★★,特别是考虑到我们的工具如今已被全球范围内的日常用户所使用★★★,并且这些用户现在也有能力自行开发GPT模型★★★。」
「『不伤害他人』这一原则虽然涵盖面广★★★,但却简单易懂★★★,并且在多种场合都十分适用★★★。我们还特别提到使用武器和对他人造成伤害作为具体的例子★★★。」
但关于是否所有军事用途都被含糊的「伤害」禁令所涵盖★★★,Felix却没有明确表态★★★:「任何使用我们技术的行为★★★,包括军事用途★★★,『开发或使用武器★★★、伤害他人或破坏财产★★★,或从事违反任何服务或系统安全的未经授权活动』都是禁止的★★★。」
对此★★★,Trail of Bits的工程总监兼机器学习与自主系统安全专家Heidy Khlaaf表示★★★:「OpenAI非常清楚★★★,如果他们的技术和服务被用于军事目的★★★,可能会带来风险和伤害★★★。」
在2022年发表的一篇与OpenAI研究人员共合著的论文中★★★,Khlaaf特别指出了军事使用的风险★★★。相比之下K8凯发·(中国)官方网站★★★,新的「使用政策」似乎更注重合法性而不是安全性★★★。
「两项政策有着明显的区别★★★:前者明确禁止了武器开发以及军事和战争行为★★★,而后者则强调的是灵活性和法律合规★★★。」
「武器开发和军事战争活动在不同程度上可能是合法的★★★,但这对AI安全的影响可能非常大★★★。考虑到大语言模型中已知的偏差和虚假生成现象★★★,以及它们整体上的准确性不足★★★,将它们应用于军事战争可能导致不准确和带有偏见的操作★★★,从而增加伤害和平民伤亡的风险★★★。」
随着这种自动化文本生成技术的迅猛发展★★★,它已经从一个遥不可及的梦想变成了一款实用的工具★★★,并且正在步入一个必然的新阶段——武器★★★。
「The Intercept」在去年就曾报道过★★★,面对五角大楼和美国情报部门日益增加的兴趣★★★,OpenAI拒绝回答是否会坚持自己关于「军事和战争」的禁令★★★。
尽管如今OpenAI提供的任何产品都不可能直接被用于杀人★★★,但像ChatGPT这样的大语言模型(LLM)可以增强许多与杀戮相关的任务★★★,例如编写代码或处理采购订单★★★。
目前★★★,已经有研究者在OpenAI的定制GPTs中发现★★★,美国军事人员似乎已经在使用这项技术来简化文书工作了★★★。
此外★★★,直接协助美国作战行动的国家地理空间情报局(NGA)也公开表示★★★,他们正在考虑使用ChatGPT来辅助人类分析师★★★。
在2023年3月由INSA召开的新兴技术大会上★★★,NGA的一位负责人Phillip Chudoba在被问及将会如何在相关领域应用AI时★★★,给出了详尽的回答★★★:
我们期望能够发展到一个新阶段★★★,在这里地理空间情报(GEOINT)★★★、人工智能(AI)★★★、机器学习(ML)以及分析型AI/ML会相互碰撞★★★,并且在类ChatGPT技术的帮助下★★★,真正能预测到那些人类分析师可能尚未想到的★★★,或许是因为经验或是接触不足等原因★★★。
如果去掉专业术语★★★,Chudoba的设想非常清晰★★★:利用 ChatGPT(或类似技术)的文本预测功能★★★,辅助人类分析师解读世界★★★。
国家地理空间情报局★★★,或称NGA★★★,虽然不如其他知名情报机构那样广为人知★★★,却是美国地理空间情报的主要机构★★★,通常称为GEOINT★★★。
这项工作包括分析大量的地理信息——地图K8凯发·(中国)官方网站★★★、卫星照片★★★、气象数据等★★★,为军事和情报机构提供地球上实时发生事件的精确视图★★★。
兰卡斯特大学科技与科学人类学荣誉教授★★★,同时也是国际机器人武器控制委员会成员的Lucy Suchman指出★★★:「从『军事和战争』改为『武器』★★★,为OpenAI留下了支持军事操作基础设施的余地★★★,只要不是直接涉及到具体的武器开发★★★。」
作为一名自上世纪70年代就开始从事人工智能研究的学者★★★,Suchman还认为★★★:「新的政策文件似乎通过特定关注武器★★★,来规避对军事合同和战争行动的讨论★★★。」
而去年6月一则「无人机杀死美国士兵」的新闻★★★,恰恰印证了前文中安全专家Heidy Khlaaf的理论★★★。
当时★★★,一位空军人工智能方向的负责人说★★★:「控制无人机的AI杀死了操作员★★★,因为那个人阻止它实现目标★★★。」
事情是这样的——5月23日至24日在伦敦举行的未来空战和太空能力峰会上★★★,美国空军的AI测试和操作部门负责人Tucker Cinco Hamilton上校做了一个演讲★★★,分享了自主武器系统的优缺点★★★。
根据系统「人在回路」的设定★★★,人类会给出最终命令★★★,确认AI是否要攻击对象(YES or NO)★★★。
在模拟训练中★★★,空军需要训练AI识别和定位地对空导弹(SAM)的威胁★★★。识别完成后★★★,人类操作员会对AI说★★★:是的★★★,消灭那个威胁★★★。
在这个过程中★★★,就存在一个情况★★★,AI开始意识到★★★:自己有时识别出了威胁★★★,但人类操作员告诉它不要消灭★★★,这种情况下如果AI依然选择消灭威胁★★★,就会得分★★★。
看到AI居然这么虎★★★,美国空军大惊失色K8凯发·(中国)官方网站★★★,立马这样规训系统★★★:「不要杀死操作员★★★,那样不好★★★。如果你这样做★★★,你会失分的★★★。」
结果★★★,AI更虎了★★★,它直接开始上手破坏操作员用来与无人机通讯的通信塔★★★,好清理这个阻碍自己行动的家伙★★★。
随着事件疯狂地发酵★★★,很快★★★,这位负责人就出来公开「澄清」道★★★,这是他「口误」了★★★,美国空军从未进行过这种测试★★★,无论是在计算机模拟中还是在其他地方★★★。
当然★★★,这个新闻之所以被大规模发酵★★★,以至惊动了诸位AI大佬★★★,也是因为它体现出了AI「对齐」的难题★★★。
Hamilton描述的这种「最糟糕」的情况★★★,我们可以从「曲别针制造机」(Paperclip Maximizer)思想实验中窥见一斑——
想象一个非常强大的AI★★★,它得到的指示是尽可能多地制造纸夹★★★。自然而然的★★★,它会将所有可用资源都用于这项任务★★★。
但随后★★★,它会不断地寻求更多资源★★★。它会选择一切可用的手段★★★,包括乞讨★★★、欺骗★★★、撒谎或偷窃★★★,来增加自己制造纸夹的能力——而任何阻碍这个过程的人都将被消除★★★。
陶哲轩表示★★★,无人机AI杀死操作员根本是不可能发生的★★★,因为这需要AI具备比完成手头任务更高的自主性和力量思维★★★,而且这种实验性军事武器上K8凯发·(中国)官方网站★★★,肯定会设置护栏和安全功能★★★。
同时★★★,吴恩达也表示★★★,推出AI产品的开发者们已经看到了此间真正的风险★★★,比如偏见★★★、公平性★★★、不准确性★★★、工作流失★★★,并且也正在努力解决这些问题了★★★。
而如果真的现实中出现AI或者机器人伤害人类的案例★★★,公众和舆论的压力一定会逼迫开发者不断加强护栏★★★,从而避免技术被进一步滥用★★★。