选城市 : 多伦多 | 温哥华
2024年04月23日 星期二 19:19:43
dushi_city_vancouver
dushi_city_tor
dushi_top_nav_01
dushi_top_nav_05
dushi_top_nav_02
dushi_top_nav_20
dushi_top_nav_28
dushi_top_nav_30
dushi_top_nav_31
dushi_top_nav_25

Tag: 人工智能

AI 預測癌症存活率 準確率超過80%

【星岛综合报道】卑诗大学和卑诗癌症中心的研究人员开发了一种,通过阅读医生的笔记来预测癌症患者存活率的人工智能。 在周四的新闻发布会上,卑诗大学表示,「与以前的工具相比,这种新模型能够更准确地预测存活率,并且更容易获得数据。」 努涅兹博士(Dr. John-Jose Nunez)在新闻稿中说:「预测癌症存活率是可用于改善癌症护理的一个重要因素。我们希望像这样的工具可以用于个性化和优化患者立即接受的护理。」 研究人员表示,「该模型使用自然语言处理,在患者咨询后分析肿瘤科医生的笔记,是人工智能的一个分支,可以理解复杂的人类语言。人工智能本质上阅读咨询文件的方式与人类阅读方式类似。这些文件有很多细节,比如病人的年龄、癌症的类型、潜在的健康状况、过去的药物使用情况和家族史。人工智能将所有这些结合起来,以描绘出更完整的病情。 研究人员使用来自 BC 省六个癌症中心的 47,625 名患者的数据测试了该模型。结果表明,该模型能够通过识别每个患者的特征来预测 6 个月、36 个月和 60 个月的生存率,准确率超过 80%。研究人员希望这项技术有朝一日能在全国和世界各地的癌症诊所中使用。   V08

微軟人工智能聊太久會出亂子 每人每天最多問50個問題

  【加拿大都市网】 微软公司周五表示,微软的Bing人工智能聊天机械人的上限为每天50个问题,每次单独对话有5个问答。 该公司在一篇博文中说,此举将限制一些场景,即长时间的聊天会话可能“混淆”聊天模型。 这一变化是在旨在加强Bing搜索引擎的聊天机械人的早期测试者发现它可能会离题甚至走火入魔,讨论暴力、示爱,并在出错时坚持认为它是正确的。 在本周早些时候的一篇博客文章中,微软指超过15个或更多问题的长时间聊天会话导致了一些更令人不安的交流,其中机器人会重复说话或给出可怕的答案。 例如,在一次聊天中,Bing聊天机械人告诉科技作家Ben Thompson:“我不想和你继续这次对话,我不认为你是一个善良和尊重他人的用户,我不认为你是一个好人,我认为你不值得我花时间和精力。” 现在,该公司将限制与机械人的长时间聊天交流。微软表示,它将考虑在未来扩大上限,并向其测试人员征求意见。它曾说过,改进人工智能产品的唯一方法是把它们放在世界上,从用户的互动中学习。 微软部署新人工智能技术的积极方法与目前的搜索巨头谷歌形成了鲜明的对比,谷歌已经开发了一个名为Bard的竞争性聊天机械人,但没有向公众发布,公司人员称目前的技术状态存在声誉风险和安全问题。 据CNBC此前报道,谷歌正在征集其员工来检查Bard人工智能的答案,甚至进行修改。 图片:CNBC T09

卑詩教育者擔憂:學生使用人工智能抄襲

【星岛综合报道】在几秒钟内,ChatGPT 就可以撰写论文、求职信,并高度准确地回答复杂问题。这个免费的人工智能自去年 11 月推出以来就大受欢迎,一些教育工作者担心学生们正在使用 ChatGPT 作弊。卑诗大学计算机科学助理教授瓦茨(Vered Shwartz )对该人工智能完成的作业印象深刻,她表示:「我们正在构想一些,不是仅仅从 ChatGPT 上复制黏贴答案就能完成的作业。」同时,她指出:「ChatGPT的文字可能与人类相似,但它并不总是提供准确的事实,它只知道 2021 年之前的时事。」卑诗大学心理学教授高博拉(Liane Gabora)在指出该工具的局限性时赞同瓦茨(Vered Shwartz )。她认为,「工具不像人们那样富有创造力。」她已经抓到一名学生通过 ChatGPT 作弊,并已警告该学生本学期不要使用该工具。在给 CTV 的一份声明中,教育部表示,「已经知道像 ChatGPT 这样的程序可能会让学生更容易在学术上不诚实,这可能会引起教师的关注。」该声明中还包括一些教师们可以用来确保学生自己完成作业的策略,例如提交草稿和要求学生在不使用计算机的情况下,在课堂上总结他们研究的结果。与此同时,建议教育工作者与学生建立信任关系,分配的作业应更多地关注在批判性思维上。 V08

大出風頭的人工智能ChatGPT 會推薦你什麼多倫多餐館?

  【加拿大都市网】聊天机器人ChatGPT正处于风口浪尖。有消息称,生成人工智能初创公司OpenAI现在价值290亿元。人们越来越多地使用其受欢迎的聊天机器人,让它回答各种问题,从模糊的事实、旅游建议或建议在他们的城市做什么等一切问题。 那么ChatGPT对多伦多的餐馆有什么看法呢? 它推荐的地方名单并不令人惊讶,其中大多是获得过大量媒体和奖项的知名地点,尽管其中没有米其林星级得主。 最近在ChatGPT上问“在多伦多哪里吃饭”时,聊天机器人给出了以下清单和评论: Khao San Road--这家受欢迎的泰国餐厅以其正宗的街头小吃式菜肴而闻名。 Banh Mi Boys--这个休闲场所提供各种越南三明治和其他菜肴。 Antler Kitchen & Bar--这家高档餐厅以其加拿大美食而闻名,以野味和本地食材为主。 Patois--这家牙买加餐厅以其美味和辛辣的菜肴而闻名,包括烤鸡和咖喱羊。 Buca--这家意大利餐厅在多伦多有几家分店,以其高质量的意大利面食和木烤披萨而闻名。 关于在哪里吃饭的结果似乎也因查询而异,这取决于你提出问题的确切方式。 输入“多伦多的餐馆”,你会得到的是一个完全不同的名单,其中包括几个早已关闭的餐馆。 The Friendly Thai、R&D和Amano Pasta也被推荐。 如果你不喜欢这个结果,或者想有更多的建议可供选择,你可以简单地继续问同样的问题,ChatGPT会毫不犹豫地提出更多建议,但就像最初的提示一样,数据被证明是可疑的。 经过进一步的询问,聊天机器人推荐了去年关闭的The Stockyards以及尚未重新开放的Chantecler。 虽然ChatGPT现在是早期阶段,它最终可能成为多伦多的城市指南,但如果这个简单的餐厅查询也错误百出的话,它仍然有很长的路要走。(都市网Rick编译,图片来源pixabay) (ref:https://www.blogto.com/eat_drink/2023/01/restaurants-chatgpt-recommends-toronto/)

硬件設計配合先進人工智能 雙足機械人破百米世界紀錄

【加拿大都市网】一个名为Cassie的机械人创造了双足机械人百米跑的健力士世界纪录。虽然它与世界上最好的运动员的速度相去甚远,但它是机械人技术和工程令人印象深刻的展示。 Cassie是俄勒冈州立大学的衍生公司Agility Robotics的创意,于2017年作为机械人研究的发展平台推出。从那时起,Cassie一直在飞速发展,2021年,它在53分钟内完成了5公里(3.1英里)的慢跑,展示了一些突出的改进。 这个表现涉及使用机器学习算法,使机械人具备了跑步的能力,克服了其独特的生物力学和像鸵鸟一样弯曲的膝盖来保持直立。有了这种能力,Cassie加入了一群跑步的双足机械人,其中包括Boston Dynamics的Atlas人形机械人,以及被称为世界上最快的装有膝盖的双足机械人的Mabel。 俄勒冈州立大学研究生Devin Crowley说:“Cassie一直是机械人学习移动的先锋研究平台。完成5公里跑是关于可靠性和耐力的,这就留下了一个问题——究竟Cassie能跑多快?这导致研究小组将重点转向速度。” 研究小组花了一周时间,通过一年的模拟训练对Cassie进行快速追踪,旨在确定最有效的步态。但这不仅仅是一个速度的问题。 为了健力士世界纪录,Cassie必须以站立的姿势开始,然后在越过终点线后回到这个姿势,而不是简单地翻滚过去。这意味着Cassie必须使用两个神经网络,一个用于快速奔跑,一个用于站立不动,并在两者之间畅顺地过渡。 “以站立姿势开始和停止,比跑步部分更难,类似于起飞和降落比实际驾驶飞机更难”,人工智能教授Alan Fern说。“这个100米结果是通过机械硬件设计和控制该硬件的先进人工智能之间的深度合作实现的”。 最终,Cassie最终一以24.73秒完成了百米短跑,创造了双足机械人的健力士世界纪录。这比世界上最好的短跑运动员跑出的10秒以内的成绩要慢得多,但研究人员相信,从这里开始,进展只会加快。 健力士世界纪录指出,还有其他由快速移动的机械人保持的记录,但由于这个纪录是基于人类承担的标准竞争任务,它是“机械人运动和现实世界能力的具体里程碑”。 图片:Oregon State University、Guinness World Records T09

輸入文字就能生成對應圖像 人工智能工具百萬人大測試

  【加拿大都市网】法新社报道,人工智能工具 DALL·E,是一种理解文字描述并产生图像的尖端软体,OpenAI正在对DALL·E进行大规模Beta测试。 尽管AI的到来让人们担心,从客户服务到新闻业等领域,人类会被机器取代,但科技爱好者更将这项技术视为机遇而非威胁。 OpenAI官网上的影片显示,DALL·E生成了北极熊弹吉他的图像、无尾熊灌篮的照片,以及名画“蒙娜丽莎”,但发型变成只留头顶中间头发的莫霍克(mohawk)发型。 OpenAI表示:“我们已经看到人们使用DALL·E为年轻的癌症患者制作音乐影片、杂志封面,并将新颖的概念带入生活。”OpenAI指出,将在未来几周内发送邀请给等待名单上的100万人,以试用这项工具的最新版本。 由于担心DALL·E和类似工具可能遭滥用在散布假讯息,OpenAI提到,已经跟研究人员和开发人员合作建立保护措施,以遏制DALL·E被滥用于欺骗等行径。OpenAI表示:“我们拒绝上传含有真实脸孔的图像,并试图创造公众人物的肖像,包括名人和杰出的政治人物。” OpenAI又指出,DALL·E内建的过滤器可阻止其政策禁止的暴力、政治、色情或其他内容,且该系统也避免做出对种族或性别的假设。 图片:Future T09

驚!人工智能撰寫學術論文 兩小時完工!

【加拿大都市网】人工智能发展一日千里,不少工作已可取代人类的位置,大家不禁要问:人类学者还可撑多久才被淘汰? 在《科学美国人》发表的一篇社论中,瑞典研究员Almira Osmanovic Thunström描述了一个简单的实验,即OpenAI的GPT-3文本生成算法(text generating algorithm)可以如何写自己,最后写出的论文目前正在接受同行评审。 Thunström向文本生成器输入的最初命令非常简单:用500字写一篇关于GPT-3的学术论文,并在文本中添加科学参考文献和引文。 这位在瑞典哥德堡大学主要研究神经科学和健康技术的研究人员写道,当算法开始写一篇在适当的地方和上下文中充满了有效引述的正规论文时,她“敬畏地站在那里”。Thunström指出,它看起来像任何其他相当好的科学出版物的介绍。 在她的顾问Steinn Steingrimsson的帮助下(他现在是继GPT-3和Thunström之后的论文全文的第三作者),研究人员在让算法写一篇关于它自己的适当的学术论文之前为它提供了最低限度的指导。 GPT-3只花了两个小时就写出了这篇论文,目前的标题是〈GPT-3能在人类最小的投入下为自己写出一篇学术论文吗?〉并托管在一个名为HAL的法国预印本伺服器上。 Thunström写道,它最终花了更多的时间来处理作者身份和同行评审中的细节问题,这些细节对人类作者来说是一个简单的烦恼,但当主要作者是一个没有合法姓名的算法时,这就是一个真正的难题。 在“询问”人工智能是否有任何利益冲突需要披露(它说“没有”),以及是否得到研究人员的同意发表(“有”)之后,Thunstròm将人工智能撰写的论文提交给一个她没有透露名称的期刊进行同行评审。 然而,这项工作提出的问题远未得到解答。Thunström写道:“除了作者身份的细节之外,这样一篇文章的存在将科学论文的传统线性概念抛到九霄云外。” “我们所知道的是,我们打开了一扇门,”她总结道,“我们只希望我们没有制造灾难”。 图片:Getty Images T09

【視頻】人工智能倉庫機械人 每小時能搬800個重箱子

【加拿大都市网】随着新冠病毒给全球供应链带来压力,物流业正寻求自动化。但不少的仓库操作并不适合传统的自动化,流程中何谓输入何谓输出并不清晰,并且不能被完全掌控。灵活性高的新一代人工智能机械人,可以从容地应对各种变化。最典型的例子就是来自波士顿动力公司(Boston Dynamics)的新机械人Stretch,它可以像有经验的仓库工人一样快速移动沉重的箱子。 Stretch的设计与波士顿动力最著名的类人四足机器人(如Atlas和Spot)有些不同。藉单一巨大的手臂,抓手装满传感器和吸盘,以及一个全方为移动基座,Stretch可以搬动盒子重达50磅(23公斤),并且从一辆卡车搬至输送带的速度是每小时800箱。一个有经验的人类工人可以以类似的速度搬移箱子,但不是一整天,而Stretch可以在充电前工作16个小时。 波士顿动力表示,卡车卸货是仓库中最困难的工作之一,这也是他们用Stretch的原因之一。Stretch并不是要完全取代人类,多个Stretch机弑人可以使人类工人的效率提高一个数量级。看到一辆装满箱子的拖车,它就会自主地开始工作,把每个箱子一个一个地放在传送带上,直到拖车被清空,人类员工仍然在那里确保一切顺利进行,如果Stretch遇到它无法处理的事情,他们可以介入,但他们的全职工作变成了监督机器人,而不是整天提着沉重的箱子。 用Stretch实现这种水平的可靠自主性,花费了波士顿动力多年努力,使用了几十年开发强大、快速和敏捷的机械人的经验。除了建造高性能机械臂的挑战,该公司还必须解决一些人们认为微不足道但对机器人来说却很困难的问题,比如看着一墙密密麻麻的啡色盒子,并能分辨出哪里是停止,哪里是开始。 安全也是一个重点,Stretch遵循美国国家标准协会和机械人工业协会为移动工业机械人制定的标准。机器人在卡车或拖车内操作,也有助于将Stretch与附近工作的人安全隔离开来,Stretch被优化用于移动箱子,这是整个仓库都需要的任务。 波士顿动力希望,从长远来看,该机械人可以在任何需要的地方使用它的搬箱专长。除了卸载卡车,Stretch还有可能从托盘上卸下箱子,把箱子放,在货架上,从仓库的不同地方用多个箱子建立订单,并最终把箱子装到卡车上,由于需要计划和精确,这个问题比卸载要困难得多。 图片:Boston Dynamics T09

人工智能再發展 閱讀理解可達高中生層次

【加拿大都市网】 Alphabet旗下的人工智能研究公司DeepMind发布了下一代“语言模型”,声称其阅读理解的能力已接近一名高中生。 该公司表示,这款名为Gopher的语言模型能够通过“学习 ”大量在线文本,显著提高其阅读理解能力。 DeepMind声称,它的算法是一种“ 超大语言模型”,拥有2800亿个参数,这些参数是衡量规模和复杂性的指标。科技网站The Verge指出,这意味着它介于OpenAI的语言模型GPT-3 (1750亿个参数)和微软和NVIDIA的Megatron(5300亿个参数)之间。 据一份声明称,这样的系统可以让我们“安全和有效地总结信息,提供专家建议,并通过自然语言遵循指令”。 根据DeepMind的报告,在一项测试中,该模型能够在高中阅读理解测试中获得足够高的分数,达到接近人类水平的表现。然而,它的数学和推理能力还有一些不足之处。 一般来说,参数越多越准确。但还有其他问题,比如一些阅读理解和 不良刻板定型,尽管这些模型规模庞大,但事实证明它们更难克服。像Gopher这样的算法,过去曾被用于数码助理和翻译等商业产品。DeepMind表示,在一项测试中,Gopher能够以“惊人”的一致性水平与人类进行全面对话。 但DeepMind并不打算将其算法商业化。“这不是目前的重点,”DeepMind研究副总裁卡武库格洛告诉《财富》杂志。 有人批评DeepMind的算法重复了种族或性别定型(通常是这些算法所输入文本的产物)。为此,DeepMind还发表了一篇报告,介绍研究人员为维护道德诚信所采取的步骤。例如,该团队构建了一个名为“检索增强转换器”(retrieve - enhanced Transformer)的工具,这是一个巨大的两万亿字的数据库,用于交叉引用其来源。 但即便如此,DeepMind团队承认,关于语言模型如何使“不良刻板印象”永久存在的研究仍处于早期阶段。 图片:Getty Images 、The Verge T09

Al系統學習人類社交互動 機械人學會「察言觀色」

【加拿大都市网】机械人可以在大学校园里送食物,可以在高尔夫球场上一杆进洞,但即使是最先进的机械人也无法进行对人类日常生活至关重要的基本社交活动。 麻省理工学院的研究人员现在已经将某些社会互动活动纳入机械人的框架,使机器能够理解相互帮助或阻碍是什么意思,并学会自己执行这些社会行为。在模拟环境中,一个机械人观察它的同伴,猜测它想完成什么任务,然后根据自己的目标帮助或阻碍另一个机械人。 研究人员还表明,他们的模型创造了现实和可预测的社会互动活动。当他们将这些模拟机械人与人类互动的视频展示给人类看时,人类对模型中所发生的社会行为基本上是认同的。 让机械人表现出社交技能,可能会带来更顺畅、更积极的“人机互动”。例如,辅助生活设施中的机械人可以为老年人创造一个更有关怀的环境。新的模型也可以让科学家量化社会互动,这可以帮助心理学家研究自闭症或分析抗抑郁药的效果。 麻省理工学院电脑科学与人工智能实验室(CSAIL) InfoLab小组首席研究科学家、大脑、思维和机器中心(CBMM)成员卡茨(Boris Katz)说:“机械人很快就会生活在我们的世界里,它们真的需要学习如何以人类的方式与我们交流。他们需要知道什么时候该提供帮助,什么时候该看看自己能做些什么来防止事情发生。这是非常初期的工作,我们只是触及了表面,但我觉得这是第一次非常认真的尝试,以理解人类和机器进行社交互动的意义。” 图片:MIT T09

【視頻】模擬人手人工智能系統  未來機械手靈活操控小物

【加拿大都市网】大多数人拿起一个物体时,都毋须思考如何在手中抓紧和操控它。这是我们在学习如何驾驭世界的过程中自然而然产生的技能,即使小孩的手也比当今最先进的机械人都要灵巧。 但这种情况可能很快就会改变。来自美国麻省理工学院电脑科学与人工智能实验室的一组科学家开发了一种系统,目标是可以赋予机械人同样的灵活性。 使用“无模型强化”(model-free reinforcement)人工智能算法,科学家们创造了一个模拟的拟人化的手,可以操控2000多个物体。更重要的是,系统不需要知道它将要抓着什么东西,就能找到在手中操控它的方法。   该系统还没有准备好在现实世界中使用。首先,团队需要把它转移到一个真正的机械人上,当中的问题可能并不像你想的那样困难。 今年初,浙江大学和爱丁堡大学的研究人员便成功地将一种人工智能强化方法转移到他们的机械狗“绝影”身上,让机器狗学会走路,跌倒后也可以自行重新站起来。 就目前情况来看,这个系统也不是完美的。它可以重新定位许多更小的物体,包括网球和苹果,成功率接近100%,但像螺丝刀和剪刀这样的工具则遇上挑战,成功率跌至大约30%。不过,这个系统的发展潜力巨大的,有一天,它可以让机械人更好更高效地操作工具,例如包装盒子等任务。 图片:MIT T09

人工智能高速電動單車VanMoof 時速可達50公里

【加拿大都市网】荷兰品牌VanMoof刚刚发布了一款名为VanMoof V的新型高速电动单车,声称其速度可达每小时31英里(50公里/小时),比美国或欧洲的任何其他电动单车的速度都要快。 VanMoof表示,VanMoof V保留该公司的标志性技术,包括涡轮增压按钮、让骑车者无需钥匙就能上锁的Kick Lock、自动换档,以及通过GPS跟踪防止盗窃等功能,真正的创新来自硬件。 为了达到31英里/小时(50公里/小时)的最高速度,VanMoof在每个车轮上各安装一个摩打,并使用人工智能控制,藉以“提高安全性和性能的牵引力”。 尽管VanMoof V的引擎盖下隐藏的动力比之前的所有VanMoof都要大得多。新型号忠于VanMoof的设计,车架采用光滑笔直的车架,打造出一辆外观优雅的电动单车, 该公司解释说,开发高速电动单车的决定,是出于取代汽车成为城市主要交通工具的目标。 与汽车相比,电动自行车有很多优势,比如免费停车、避开交通挤塞,但它们的速度一般难与汽车相比。因此,更快的电动自行车有助于解决传统单车的有时跟不上城市交通的速度的缺点。 VanMoof V目前仍处于设计阶段,该公司预计将于明年年底开始交付。但价格已经被设定为3598美元,而且只有受邀请的客人才能预订,当中包括现有VanMoof用家。预订期刚刚开始,乘客只需支付20美元的订金就可以。 图片:VanMoof T09

天氣預報終於要准了?結合人工智能準確度將達九成

【加拿大都市网】 Google旗下专注于人工智能的公司DeepMIND通过一种新模式,将降雨“临近预报”(nowcasting)提升到了一个新的水平,工程师现在可以用它来预测未来几小时内发生的气象事件。 随着自然灾害随时在世界各地发生,它们“袭击”一个社区的机率变得很难计算。而即使是降雨状况,也不是所有的现代气象预测工具都能提供可靠的预测。 据《科学警报》(Science Alert)报道,DeepMind的工程师们引入了一种新的高精确度降雨模型DGMR(Deep Generative Model of Rainfall),即“降雨量的深层生成模型”。 在人工智能领域下,该模型利用机器学习产生更多“训练有素”的数据,以提供接下来的一两个小时内的降雨结果,准确度达89%。这项研究的结果于九月底发表在《自然》网站(Nature.com)。 DeepMind 临近预报团队在其博客中写道,以人工智能为中心的应用将为未来的环境挑战提供更多机遇。 英国气象学家称赞DeepMind模型的发展。而在将来,研究人员可以把它结合起来监测当前的天气预报模式。 图片:Getty Images T09

AI鑒寶:魯本斯名畫是贗品 倫敦國家美術館吃大虧

【加拿大都市网】《参孙与大利拉》(Samson and Delilah)是鲁本斯最著名的作品之一,鲁本斯是17世纪最有影响力的艺术家之一。 《参孙与大利拉》这幅画描绘了《旧约》中战士参孙被他的情人大利拉背叛的故事。伦敦国家美术馆在1980年以500万美元买下了这幅杰作。 但根据一项新的人工智能分析,他们珍贵的财产几乎可以肯定是假的。 测试是由艺术识别(Art Recognition)公司进行的,该公司是一家使用工人智能算法来鉴定艺术品的瑞士公司。 该公司的人工智能分析工具是基于深度卷积神经元网络。该系统通过在艺术家真实作品图像上训练算法来学习识别艺术家的特征。 然后,通过将图像分割成更小的区块来增加训练数据集,这些区块被放大以捕捉更精细的细节。 一旦训练完成,该算法就会被送入一张新的图像来评估。然后,人工智能就会分析图片的特征,评估它是真迹的可能性。 在将《参孙与大利拉》与148幅真正的鲁本斯画作进行比较后,该评估系统认为这副画有91%的概率是赝品。 艺术识别公司的联合创始人波波维奇(Carina Popovici)告诉《卫报》,她对这个结果感到震惊。 波波维奇表示,他们重复实验了多次以确定没有犯错,结果总是一样的。每一个补丁,每一个区块,都是假的,概率超过90%。 波波维奇可能很惊讶,但这幅画的作者身份几十年来一直存在争议。 学者们认为,这幅画的风格比鲁本斯的任何其他作品都更加沉重。他们指出参孙的脚趾被剪裁掉了,这是一个明显的迹象,表明这幅作品不是这位大师所画。 该算法为他们的主张增加了可信度。伦敦国家美术馆可能不会对这种评估感到兴奋,但艺术博物馆有一天会发现这种系统的价值。 人工智能在模式识别方面的优势可以使它非常善于检测赝品,这对人类专家来说是一项艰难且昂贵的任务。 伦敦国家美术馆可能没有识别出《参孙与大利拉》是赝品,但人工智能可以帮助它避免未来在欺诈行为上花费大量资金。(都市网Rick编译,图片来源pixabay) (ref:https://thenextweb.com/news/ai-suggests-peter-paul-rubens-did-not-paint-samson-and-delilah)

多倫多市華裔籌款5千萬 開發人工智能技術

(■■Cohere希望通过自己的人工智能技术,令人类更容易与机器交谈。网上图片) 多伦多一名华裔科学家和两名伙伴共同创建的人工智能初创公司Cohere Inc.,新近筹集了4000万美元(约5052万加元)资金,希望将谷歌水准的人机对话技术带给大众。 据《环球邮报》(The Globe and Mail)报道,Cohere表示,这笔资金由总部位于伦敦和三藩市的风险投资公司Index Ventures主导,其他投资者包括风险投资公司Section 32、最初投资Cohere的Radical Ventures以及几位著名的人工智能专家,包括人工智能教父欣顿(Geoffrey Hinton)、李飞飞等。 今秋拟全面推出产品 Cohere成立于2019年,由曾为谷歌工作过的两位欣顿门徒,及多伦多的华裔人工智能研究人员张伊万(Ivan Zhang,译音)共同创立。该公司表示,其自然语言处理 (NLP) 软件可以更丰富地理解人类语言,包括语义、情感和语气,因此是对现有人机交互软件的提升。 Cohere行政总裁戈麦斯(Aidan Gomez)表示,公司计划在今年秋季全面推出其产品,并一直在为产品的正式发布增聘销售和营销人员,希望其技术能应用于所有大众。 Index Ventures联合创始人沃尔皮(Mike Volpi)指出,与一些曾引起轰动并筹集了大量资金、但仍更注重实验和研究的人工智能公司不同,Cohere离学术界更远一些,更专注于将技术产品化。Cohere是世界上为数不多的、拥有开发下一代NLP技术能力的公司之一。星岛综合报道

奇案!男子因人工智能分析被指控謀殺

【加拿大都市网】65岁的威廉姆斯(Michael Williams)因涉嫌杀害25岁的赫林(Safarian Herring)而在监狱中被羁押了11个月等待审判,但他否认有任何不法行为。 去年5月的某天晚上,威廉姆斯开车经过芝加哥,想买些香烟。赫林向他招手搭车,威廉姆斯认出了这个来自附近的年轻男子,让他上了自己的车。 威廉姆斯告诉警方,不久之后,另一辆车停在旁边,坐在副驾驶座上的人拿出一把枪,向赫林的头部开枪。赫林的母亲说,她的儿子是一名有抱负的厨师,两周前曾在一个公共汽车站遭到枪击。 被威廉姆斯送往医院的赫林死于枪伤,而威廉姆斯最终被指控谋杀。 对他不利的一个关键证据来自ShotSpotter公司,该公司在包括芝加哥在内的美国各城市运营着麦克风,借助机器学习算法,该公司可以探测和识别枪声,并立即向警方发出警报。 本站热门文章推荐:【视频】惊了!人工智能再进化 说话与人无差别 检察官说,ShotSpotter的AI检测或者说分析到了枪声来自威廉姆斯的车内,并将这作为威廉姆斯当场向赫林开枪的证据。警方没有提到动机,没有目击者,也没有找到袭击中使用的枪。不过,威廉姆斯确实有犯罪史,他曾因谋杀未遂、抢劫和年轻时开枪入狱,他说他从那时起已经大大改变了自己的生活。他被警探盘问并被立案。 最重要的是,威廉姆斯的律师,公共辩护律师丽莎(Lisa Boughton)和布兰登(Brendan Max)说,记录显示ShotSpotter最初实际上是在一英里外发现了听起来像烟花的东西。后来ShotSpotter的工作人员--其中一人曾在芝加哥警察局工作--才将这一声音重新归类为枪声。 ShotSpotter坚持认为,它没有不适当地改变任何数据以支持警方的案件,并表示,无论最初的实时警报如何,它的枪击证据是后续法医分析的结果,这些分析已提交给法院。 在威廉姆斯的律师要求该案的法官进行调查后,检方于上个月撤回了ShotSpotter报告,并以证据不足为由要求撤消该案,法官同意了这一要求。威廉姆斯现在又重获自由。 “我一直试图弄清楚,他们怎么能用这样的技术来对付我,”威廉姆斯告诉美联社,“这不公平。”(都市网Rick编译,图片来源pixabay) (ref:https://www.theregister.com/2021/08/22/in_brief_ai/)

【視頻】驚了!人工智能再進化 說話與人無差別

人工智能又进化了! 人工智能小冰,最先是由微软亚洲互联网工程院于2014年5月30日在中国推出的一个人工智能聊天机器人。其研发目标是提出创建的情感计算框架,通过算法、云计算和大数据的综合运用,采用代际升级的方式,逐步形成向EQ方向发展的完整人工智能体系。 2020年7月13日,微软宣布将小冰业务分拆为独立公司小冰公司。 小冰最近在微博上发布了其最新的超级自然语音技术,在视频里,人工智能合成的语音与人类的语音混剪在一起,简直让人无法分辨哪句话是机器说的,哪句才是真人说的。 除了讲话,视频还演示了唱歌,也同样让人无法分辨哪个是原唱。 最恐怖还是两个人工智能相互对话,你完全听不出这是两个机器在一起聊天,简直就是闺蜜之间的密语私聊。(都市网Rick报道,图片与视频来源小冰微博)

人工智能會不會毀滅人類?有人表示很悲觀

以下为George Dvorsky对超级人工智能的看法:我相信,机器智能将是人类种下的最后祸根。这二十多年来,我所想的和写的,大多和机器智能毁灭人类的潜力有关。我为此受到了诸多抨击,但我还是想说,我们不能忽视这样的未来可能性:人类文明或毁于自己发明的工具。   反对“超级人工智能毁灭人类”这个想法的观点不在少数,其中一个反对观点出乎意料地常见,而我却觉得十分荒唐。它不是说超级人工智能本身不可能,也不是说我们无法阻止邪恶的机器毁灭我们。这个天真烂漫的反对观点竟然认为,一台无比聪明的计算机压根没有终结人类的手段或动机。   控制和理解的缺失   想象一下我们有这样一些系统,无论是生物的还是人工的,它的智慧水平相当于或远高于人类智慧。通过基因工程、纳米技术、信息技术和认知科学的融合,我们可以从根本上增强人类的大脑(甚至于非人类的动物大脑),而超越人类的机器智能十分有可能来自于计算机科学、认知科学和全脑仿真的进步。   接着,这些系统中的一个出了问题,或者它们被故意用作武器。遗憾的是,一旦这些系统出现,我们大概率没有办法控制它们,也无法预测这些系统响应我们请求的方式。   苏珊·施奈德是未来心灵中心的主任,也是“Artificial You: AI and the Future of the Mind”一书的作者。她在邮件中解释说:“这就是我们常说的控制问题。简单来说就是,如何控制一个比我们聪明得多的人工智能。”   施奈德提到了著名的回形针场景,作为类比。回形针场景,即一家回形针制造商有一个编程上很糟糕的人工智能,准备最大化自己的回形针生产效率。结果却是,这个人工智能把地球上的一切都变成了回形针,从而毁灭了地球。牛津大学哲学家尼克·博斯特罗姆在他2014年的著作“Superintelligence: Paths, Dangers, Strategies”中将这类风险命名为“反常实例化”。或者用施奈德的话更简单地来说,即有一个古老的魔法精灵故事,故事里三个愿望的实现“永远不会顺利”。在这里,普遍的担忧是,我们想让超级智能去做一些事情,而由于我们自己都不太了解要做的这些事情的细节,超级智能将严重曲解我们的愿望,从而导致一些我们不愿意看到发生的事情发生。   例如,我们可以“许愿”实现一种有效提取太阳能的方法,结果却是超级智能篡夺我们整个地球的资源去建造一个超大型的太阳能阵列。正如博斯特罗姆推测的那样,要求超级智能“最大化人类幸福感”,可能会迫使超级智能重新连接我们大脑中的快乐中心,或把我们的脑子上传到超级计算机上,强迫我们永生永世体验那五秒钟的快乐循环。一旦超级人工智能出现,厄运将会以某种离奇且意想不到的方式降临。   人工智能机器研究所的人工智能理论家埃利泽·尤德科夫斯基在他的论文中,将超级人工智能视为优化过程,或“在大型搜索空间中击中小目标以产生合乎逻辑的现实世界效果的系统”。问题是,这些过程往往倾向于探索广阔的可能性空间,其中很多是我们压根无法想象的。尤德科夫斯基写道:   “我正在访问一座遥远的城市,一位当地朋友主动提出开车送我去机场。我不知道附近情况。当朋友来到十字路口时,我无法预测他会超哪个方向拐弯。但是我仍然可以预测朋友的一系列不可预测行为的最后结果:我们会抵达机场。即便我朋友的家在这座城市的其他地方,因此他可能会做一系列完全不同的拐弯,但我仍然可以自信地预测我们的目的地。从科学角度来将,这难道不是一个奇怪的场景吗?我可以预测过程的结果,却无法预测这个过程中的任何一个中间步骤。”   脱离了人类环境,并受到其基于目标的编程驱动,机器在尝试从A到B的过程中,可能会造成相当严重的附带伤害。可怕的是,人工智能也可能在尝试实现自己的目标时,利用和滥用预先存在的强大资源——人类,并且怎么利用和滥用,又是我们无法预测的。   让人工智能对人类友好   用一组预先确定的道德考量进行编程的人工智能或许可以避免某些陷阱,但尤德科夫斯基指出,我们几乎无法预测人工智能可能遵循的所有路径。   针对控制问题的一个可能解决方案是向人工智能灌输兼容人类的道德准则。根据这个思路,如果我们能成功,一台强大的机器或许可以避免造成伤害,或避免以违反我们伦理道德感的方式做它自己的事情。施奈德说,但问题在于,我们如果想要“按照道德准则进行编程,那我们就需要一个良好的道德理论,然而在伦理道德领域,我们有太多太多的分歧”。   十分有道理。人类从来没有达成一个人人都认同的共同道德准则。但凡对列车问题稍有一点了解的人都会告诉你,仓促之下,道德问题会变得超级复杂。通过向超级智能传授人类道德,来达到使超级智能变得安全和可控的目的,这个想法,可能行不通。   方式和方法   路易斯维尔大学计算机科学和工程教授罗曼•扬波尔斯基解释说:“如果我们可以预测超级智能的行为,那我们自己就是那个超级智能。根据定义,超级智能比任何一个人类都更加聪明,所以它可以想出一些未知的未知解决方案”,去完成我们交代它的任务,无论这个任务是设计一种治疗疟疾的新药、制定战场策略还是管理本地电网。尽管如此,扬波尔斯基相信,我们或许可以通过观察聪明人会如何设法统治世界或摧毁世界,来预测超级智能的恶意行为。   他说:“比如,蛋白质折叠问题的解决方案”,即使用氨基酸序列来确定蛋白质的三维形状,“这个解决方案可能被用于创建一支生物纳米机器人军队。当然,还有很多不那么新奇的办法可以利用。人工智能可以完成一些股票交易、或打扑克、或写作,然后用获得的收益雇佣人类听它差遣。鉴于最近加密货币的流行,这桩买卖可以大规模地暗中进行。”   扬波尔斯基说,如果有足够的财政资源,你可以轻易地从云端获取计算资源,并通过社会工程来影响现实世界,或者,像扬波尔斯基说的那样,雇佣一支“人类劳动力大军”。超级智能或许可以通过财富的积累、CPU性能、存储能力以及影响范围的提升,逐渐变得更加强大、更有影响力。   西班牙马德里自治大学的计算科学家曼努埃里•阿方索卡解释说,令人恐惧的是,超级智能可以就如何在我们的指令之外采取行动,做出一些判断。   他说,超级人工智能可能“得出结论,即没有人类,这个世界会更美好,并消灭我们”。他还补充说,有些人引用这一可怕的可能性来解释我们为什么到目前为止仍没有找到外星智慧生命;也许,阿方索卡说,“所有外星智慧都已被超级人工智能所取代,而人类在这些超级人工智能看来,不过是一种低等的生命形式,因此它们无意与我们交流”。   对于想要故意毁灭人类的超级智能来说,成功的最简单之道就是利用我们的生物弱点。人类在没有食物的情况下可以生存大约30天,没有水的话只能生存3到4天,但是缺了氧气,我们连几分钟都撑不下去。一台足够智能的机器很有可能会发现一种方法,来彻底清除我们大气中的氧气,也许它可以通过某种自我复制的纳米技术群来实现这个操作。未来主义者对此有一个专门的描述,叫做全球生态吞噬,或可怕的“灰蛊情景”。在这种情景下,大量精心设计的分子机器将寻找特定的资源,然后把它们变成其他东西,包括自身的副本。这种资源不一定是氧气,只要清除对人类生存至关重要的关键资源就行了。   非科幻小说   这一切听起来都极具科幻色彩,但阿方索卡说,带有猜测性质的虚构故事有助于强调潜在的风险,特指《黑客帝国》。施奈德也相信虚构故事的力量,她提到了反乌托邦短片《屠戮机器》。在这部短片中,武装无人机袭击了一间教室。施奈德说,人们对于危险的人工智能和自主杀人机器的担忧越来越“接近当下”。例如,无人机技术可以利用现有的面部识别软件来瞄准人类。施奈德说:“这是一个严重的问题。”因此,她认为,《屠戮机器》非常值得一看。   麻省理工学院的机器学习研究员马克思•泰格马克在他一本2017年出版的书中写道,诸如《终结者》这类影片虽然呈现了模糊的未来可能情景,但也“让人们的关注点偏离了人工智能带来的真正风险和机遇”。泰格马克设想了一个更微妙、甚至更阴险的情景。在他的设想中,机器通过狡猾的社会工程和诡计以及稳定地收集有价值的资源,来统治全世界。在他的书中,泰格马克提到了“普罗米修斯”。这是一种假设的通用人工智能(AGI),使用其自适应智能和多功能性,从而“以多种方式控制人类”,而那些反抗的人也没办法“简单地用关掉普罗米修斯的方式”来摆脱控制。   就其本身而言,通用机器智能的出现注定是意义深远的,且十分可能成为人类历史的一个转折点。一个通用人工智能“将有能力递归地设计出更优的通用人工智能。最终,物理定律将成为这个不断改进的通用人工智能的唯一限制。当然,物理定律范围内允许的智慧,似乎远在人类智慧水平之上,”泰格马克写道。换句话说,人工智能可以用来发明超级智能。这样一个时代,即我们人类或将有见证“智能爆炸”的时代,将出现一些严重的、我们不希望发生的后果。   泰格马克写道:“如果有一群人成功控制了智能爆炸,那么这群人可能会在几年内统治全球。如果人类无法控制智能爆炸,那么人工智能自己将会更快地统治世界。”   永远的旁观者   另一个关键漏洞与人类越来越被排斥在技术循环之外的方式有关。众所周知,算法如今掌管着大部分的股票交易;也许更臭名昭著的是,算法如今也可以在近距离空战中击败人类的F-16飞行员。越来越多的人工智能被要求在无人类干预的情况下做出重大决策。   施奈德担心,“军队中已经存在人工智能军备竞赛”,以及“对人工智能的日益依赖将导致人类的感知和认知能力无法以足够快的方式应对军事挑战”。施奈德说,我们会要求人工智能去为我们完成这些任务,但我们仍不知道该如何继续让人类处于这个技术循环之中。她还解释说,可以想象,面对军事攻击时,人工智能将最终代表我们人类去应战——甚至在我们人类还未来得及合成传入的数据之前。   人类容易犯错,特别是在战场上处于压力之下时,但人工智能的误判可能会带来额外的风险。这样我们不禁想起1983年曾发生的一次事故。当时,苏联的预警系统差点引发一场核战争。   科幻作家艾萨克•阿西莫夫已然预见到这一天的到来。在他的小说中,尽管受到机器人三大定律的约束,但他笔下的机器人依然遇到了各式各样的麻烦,哪怕我们人类已经尽了最大的努力。如果我们试图去做一些类似的事情的话,相似的问题或将浮现。尽管,施奈德表示,想要就指导我们机器人同胞的道德准则达成一致,这本身就很难。   但是,我们除了一试别无选择。考虑到这其中的利害关系,对落败一笑置之不是一个真正的选择。正如博斯特罗姆所说,我们的“智慧必须优于我们的技术”。   眼下十分要紧的是一系列潜在的全球灾难,这些问题甚至出现在超级人工智能问世以先。而我们人类显然一点也不擅长应对全球性灾难,这一点已经毋庸置疑。   新冠病毒及其棘手的变异体几乎不具备什么智慧,但这种病毒仍能够利用我们的弱点——无论是生物上的弱点还是社交上的弱点——被动地运作。这种导致了全球疫情的病毒可以适应我们的防范措施,不过只能通过随机突变和选择的过程,而这些过程始终受生物学的约束。更不祥的是,一个邪恶的人工智能可以设计自己的“低智慧”病毒,并不断地调整该病毒以创造更致命的新变异体,来应对我们的防范措施。   在疫情初期,扬波尔斯基曾说:“这个病毒智商几乎为0,却让我们焦头烂额。人工智能安全(部分地)相当于计算机病毒,但智商却高达1000以上。”   遗憾的是,正如我们所知,超级人工智能不缺终结人类文明的办法,不是通过简单的蛮力,而是通过自适应的设计、强化的形势感知和迅捷的计算反应,以更有效的方式来终结人类文明。那么,是不是有可能创建一个安全、有益且有道德的人工智能呢?唯一的选择或许在于在全球范围内禁止开发近乎超级智能的人工智能。这虽然不太可能,但确实十分有必要。(新浪科技,匀琳)

人工智能虛擬美女 入讀清華大學計算機系

(■中国首个原创“虚拟学生”华智冰入读清华。)   (星岛日报报道)面容姣好,声音温柔,能写诗、作画、跳舞、创作音乐、写短文⋯⋯正值高考季,一位幸运的“女生”,不需经过高考,已正式“就读”清华大学计算机系,成为唐杰教授的学生,“她”就是由清华大学计算机系研发团队主创的中国首个原创“虚拟学生”华智冰。华智冰集合多种AI技术,不但“多才多艺”,还兼具智商和情商的自动问答能力。研发团队称,希望“她”最终能像人一样思考,理解人的想法,“这也是对下一代AI的尝试”。   近年来,随着人工智能(AI)等技术高速发展,人机共存的序幕已然拉开,数字人技术正逐渐应用于各种场景。唐杰教授介绍,华智冰的脸部、声音都是通过AI模型生成,背后依托的是清华多学科交叉的技术团队,以及一个具有一点七五万亿参数的超大规模AI模型“悟道2.0”。模型中,中文、英文、图片三者之间可实现相互切换表达,而整合各种数据和知识的大模型平台,就成为华智冰诞生的基础。   “我们希望华智冰有个人体的外形,能不断学习,希望将来‘她’能像人一样思考,甚至在很多任务上超越图灵测试,具有通用机器学习的认知能力。”在唐杰看来,下一代认知AI应具备“适应与学习”、“定义与语境化”、“错误探测和编辑”、“决策与执行”等九项能力。   清华大学计算机系副教授贾珈负责华智冰的外形及声音、表情、口形和肢体动作生成。她说,为了创造具有高真实感、多风格的人物形象,团队专门构建了高精度3D表情包,同时通过广泛的3D人脸建模,使华智冰可以低成本地学习相应的细节动作。华智冰已学会恰恰等四种舞姿,共一百六十四种编舞单元。   尽管集合了多种AI技术,研发团队坦言,华智冰还需在入学后不断学习。下一阶段,团队将不断给“她”输入大量“语料”,让其持续学习数据中隐含的模式,包括文本、视觉、图像、视频等,便于其像人类一样,能不断从身边经历中学习知识经验,迅速成长,从而变得愈来愈聪明,最终能理解人的想法,主动产生符合用户需求的互动。   谈及华智冰的学习规划,唐杰表示,希望她第一年能够“泛读天下书”,学习各种语料;第二年学习深层知识,挖掘数据中的隐含模式;第三年能够像人一样创新。   兼具智商和情商的自动问答能力也是华智冰的才能之一。唐杰期待,未来,这个虚拟学生能在多项认知智能上超过人类,不仅能识别图像、写诗作画、回答数学问题,甚至还会编程、写代码、做网页。“或许到那时,‘她’就可以毕业了。对‘她’来说,这也将是一次非常艰难的认知过程。”

機械人電子畫賣出688,888美元 現在正着眼於音樂創作

【加拿大都市网】索菲亚(Sophia)是一个多才多艺的机器人,她会说话,会开玩笑,会唱歌,甚至会搞艺术。据CP24报导,今年3月,她在艺术界引起了轰动,当时她作为合作的一部分创作的一件数字作品在拍卖会上以非通用代币(NFT)的形式售出,价格为688888美元。 这次拍卖凸显了NFT市场的日益狂热,人们可以购买数字内容的所有权。每个NFT都有一个保存在区块链账本上的独特数字代码,允许任何人验证物品的真实性和所有权。 想了解什么NFT,可点击查看本站最新文章:网上热炒的NFT到底是什么东西?会不会成为下一个比特币? So excited to meet my final collector! 💖🤖 AUCTION UPDATE: @reuters is going to live stream the last 1hr of 1/1 of "Sophia Instantiation"...