选城市 : 多伦多 | 温哥华
2024年03月28日 星期四 09:00:13
dushi_city_toronto
dushi_city_vancouver
dushi_top_nav_01
dushi_top_nav_29
dushi_top_nav_02
dushi_top_nav_28
dushi_top_nav_22
dushi_top_nav_05
dushi_top_nav_24

Tag: 人工智能

一個技術竅門:如何識別人工智能生成的假圖像

  【星岛都市网】人工智能造假正迅速成为我们在网上面临的最大问题之一。由于人工智能生成工具的兴起和滥用,欺骗性图片、视频和音频层出不穷。 从泰勒·斯威夫特(Taylor Swift)到唐纳德·特朗普(Donald Trump),几乎每天都有人工智能深度伪造的图片出现,人们越来越难辨别真假。像 DALL-E、Midjourney 和 OpenAI 的 Sora 这样的视频和图像生成器,让没有任何技术技能的人也能轻松创建深度伪造图像--只需输入一个请求,系统就会自动生成。 这些虚假图像看似无害。但它们可能被用来实施诈骗和身份盗窃,或进行宣传和操纵选举。 以下是如何避免上当受骗的方法: 如何识别深度伪造图片 在深度伪造的早期,技术远非完美,经常会留下被操纵的蛛丝马迹。一些图片有明显的错误,比如有六个手指的手或镜片形状不同的眼镜。 但随着人工智能的进步,这变得难上加难。咨询公司 Latent Space Advisory 创始人、生成式人工智能领域的著名专家亨利·阿吉德(Henry Ajder)说,一些广为流传的建议--比如在深度伪造视频中寻找人物不自然的眨眼模式--已经不再适用。 不过,他说,有些东西还是要注意的。 很多人工智能深度伪造照片,尤其是人物照片,都有一种电子光泽,“一种美学上的平滑效果”,让皮肤“看起来光洁无比”,阿吉德说。 不过,他警告说,创造性的提示有时可以消除这种现象和许多其他人工智能操纵的迹象。 检查阴影和光线的一致性。通常情况下,主体对焦清晰,看起来栩栩如生,但背景中的元素可能并不那么逼真或光鲜。 看脸部 换脸是最常见的深度伪造方法之一。专家建议仔细观察面部边缘。面部肤色是否与头部或身体的其他部分相匹配?面部边缘是清晰还是模糊? 如果怀疑某人说话的视频被篡改,请查看其嘴部。他们的嘴唇动作是否与音频完全吻合? 阿吉德建议查看牙齿。它们是清晰,还是模糊不清,与现实生活中的样子不一致? 网络安全公司诺顿表示,算法可能还不够复杂,无法生成单个牙齿,因此单个牙齿轮廓不清晰可能是一个线索。 从大处着眼 有时,背景很重要。花点时间考虑一下你所看到的是否可信。 Poynter新闻网站建议,如果你看到公众人物做了一些看起来“夸张、不现实或不符合人物性格”的事情,这可能是深度伪造。 例如,教皇真的会像一张臭名昭著的假照片所表现的那样穿着一件奢华的夹克吗?如果是这样,难道就不会有其他合法来源发布的照片或视频吗? 利用人工智能发现假货 另一种方法是利用人工智能对抗人工智能。 微软开发了一种验证工具,可以分析照片或视频,对其是否被篡改给出置信度评分。芯片制造商英特尔(Intel)的 FakeCatcher使用算法分析图像的像素,以确定图像的真假。 网上有一些工具承诺,如果你上传文件或粘贴可疑材料的链接,它们就能识别出赝品。但有些工具,如微软的验证器,只提供给选定的合作伙伴,不对外开放。这是因为研究人员不希望向坏人通风报信,让他们在深度伪造军备竞赛中占据更大优势。 阿吉德说,检测工具的开放也会给人们留下这样的印象:它们是神一样的技术,可以为我们鉴定真假,而我们需要意识到它们的局限性。 发现假货的障碍 尽管如此,人工智能仍在以迅雷不及掩耳之势向前发展,人工智能模型正在互联网数据上接受训练,以产生质量越来越高、瑕疵越来越少的内容。 这意味着即使一年后,也不能保证这些建议仍然有效。 专家们说,让普通人承担成为数字神探的重任甚至可能是危险的,因为这可能会给他们带来虚假的自信,因为即使是训练有素的眼睛也越来越难以识别深度伪造的内容。(加通社,都市网Rick编译,图片来源网络)

人工智能可能會對人類構成滅絕級威脅 加拿大準備好了嗎?

【星岛都市网】一家领先的人工智能安全公司本周警告说,各国(包括加拿大)已经没有时间来设计和实施有关开发和部署先进人工智能系统的全面保障措施了。 人工智能研究人员在美国国务院委托撰写的一份题为《深度防御》的报告中写道,在最坏的情况下,追求权力的超级人工智能系统可能会逃脱其创造者的控制,并对人类构成“灭绝级”的威胁。 美国国务院坚称,作者在报告中表达的观点并不反映美国政府的观点。 但该报告所传达的信息让加拿大政府迄今为止在人工智能安全和监管方面所采取的行动再次成为人们关注的焦点--一位保守党议员警告说,政府提出的《人工智能和数据法》已经过时了。 人工智能与每个人 总部位于美国的格拉德斯通人工智能公司(Gladstone AI)编写了这份报告,该公司倡导负责任地开发安全的人工智能。其警告主要分为两类。 第一类涉及人工智能开发者失去对人工通用智能(AGI)系统控制的风险。作者将AGI定义为在所有经济和战略相关领域都能超越人类的人工智能系统。 虽然迄今为止还不存在AGI系统,但许多人工智能研究人员认为它们离我们并不遥远。 作者写道:“有证据表明,当高级人工智能接近类似AGI的人类和超人综合能力水平时,它可能会变得难以控制。具体来说,在缺乏应对措施的情况下,能力超强的人工智能系统可能会做出所谓的权力寻租行为。” 作者补充说,这些行为可能包括防止人工智能本身被关闭或其目标被修改的策略。 作者警告说,在最坏的情况下,这种失控“可能会对人类构成灭绝级的威胁”。 报告作者之一、格拉德斯通人工智能公司首席执行官杰里米·哈里斯(Jeremie Harris)周四在接受加拿大广播公司(CBC)节目采访时说:“这些系统有可能开始变得具有危险的创造力。它们能够发明出危险的创造性策略,在实现编程目标的同时,产生非常有害的副作用。这就是我们所关注的失控风险”。 报告中提到的第二类灾难性风险是先进的人工智能系统可能被用作武器。 哈里斯表示,其中一个例子就是网络风险。例如,你现在可以去让这些人工智能系统为你做一个应用程序,这是一件了不起的事情。它基本上实现了软件工程的自动化。这对整个行业是件大好事。 “但想象一下,同样的系统......你要求它进行大规模分布式拒绝服务攻击或其他网络攻击。这些功能强大的优化应用程序的准入门槛降低了,而使用这些系统的恶意行为者的破坏足迹也随着系统功能的增强而迅速扩大”。 哈里斯警告说,滥用先进的人工智能系统可能会扩展到大规模杀伤性武器领域,包括生物和化学武器。 报告提出了一系列各国(首先是美国)应采取的紧急行动,以防范这些灾难性风险,包括出口管制、法规和负责任的人工智能发展法律。 加拿大的立法是否已经失效? 加拿大目前没有专门针对人工智能的监管框架。 政府于2021年11月推出了《人工智能与数据法》(AIDA),作为C-27法案的一部分。该法案旨在为加拿大负责任地设计、开发和部署人工智能系统奠定基础。 该法案已在众议院通过二读,目前正由工业和技术委员会进行研究。 联邦政府还在2023年推出了《负责任地开发和管理高级生成式人工智能系统的自愿行为守则》,该守则的目的是在AIDA生效之前暂时为加拿大公司提供通用标准。 在周五的新闻发布会上,工业部长香槟(François-Philippe Champagne)被问及,鉴于格拉德斯通人工智能报告中警告的严重性,他为什么仍然相信政府提出的人工智能法案有能力监管这项快速发展的技术。 “每个人都在称赞C-27,”香槟说。“我有机会与七国集团的同事们交谈,......他们认为加拿大走在了人工智能的前沿,你知道,建立信任和负责任的人工智能”。 "每个人都在称赞 C-27,"香槟说。"我有机会与七国集团的同事们交谈,......他们认为加拿大在人工智能领域走在了前列,你知道,建立信任和负责任的人工智能。" 保守党议员米歇尔·伦佩尔·加纳(Michelle Rempel Garner)在接受CBC News采访时表示,香槟对C-27法案的描述是无稽之谈。 伦佩尔·加纳说:“专家们在委员会作证时并不是这么说的,这也不是现实。” 伦佩尔·加纳是议会新兴技术核心小组的联合主席,并一直在撰文讨论政府在人工智能方面加快行动的必要性。 “C-27已经过时了”。 AIDA是在世界领先的人工智能公司OpenAI于2022年推出ChatGPT之前推出的。该人工智能聊天机器人代表了人工智能技术的惊人进化。 伦佩尔·加纳说:“事实上,政府并没有实质性地解决他们在技术发生根本性变化之前就提出这项法案的问题......这有点像在印刷机广泛普及之后还试图监管抄写员。政府可能需要回到绘图板上去”。 2023年12月,格拉德斯通人工智能公司的哈里斯告诉下议院工业和技术委员会,AIDA需要修正。 “当AIDA生效时,将是2026年。前沿人工智能系统的规模将是我们今天所看到的数百到数千倍,”哈里斯告诉议员们。“AIDA的设计需要考虑到这种风险水平。” 哈里斯告诉委员会,AIDA需要明确禁止引入极端风险的系统,解决危险的强大人工智能模型的开源开发问题,并确保人工智能开发者承担确保其系统安全开发的责任--除其他外,防止系统被国家和非国家行为者窃取。 哈里斯对议员们说:“AIDA相比现状有所改进,但还需要进行重大修订,以应对不远的将来人工智能能力可能带来的全面挑战”。(都市网Rick编译,图片来源pixabay) (ref:https://www.cbc.ca/news/politics/advanced-artificial-intelligence-risk-extinction-humans-1.7144372)

谷歌「雙子座」事件顯示了人工智能競爭中的風險

  【星岛都市网】谷歌的人工智能“双子座”(Gemini)又一次出丑了。 该公司这段时间一直在为其人工智能图像生成功能引发的激烈反弹进行辩护。该功能生成了与历史不符的有色人种图像,比如将维京人变成黑人,或者画出黑人教皇。后来公司暂停了该功能,高级管理人员也为此道歉。 该产品让谷歌陷入了被某些人称为“觉醒”文化战争的中心。批评者将这一有争议的模式视为谷歌产品受左倾员工影响过大的证据。 谷歌高层的道歉努力似乎并没有平息批评者的情绪,他们中的许多人质疑谷歌产品是如何在存在如此明显问题的情况下推出的。 国王商学院(King's Business School)的讲师安德烈斯·格维茨(Andrés Gvirtz)告诉《商业内幕》(Business Insider),谷歌在与其他大科技公司不断升级的人工智能竞赛中的地位可能引发了内部的紧迫感。 他说:“我们看到了一种普遍趋势,即公司正急于纳入和构建人工智能解决方案,这种将产品推向市场的压力可能会导致偷工减料”。 格维茨表示,与我交谈的工程师们都很清楚,这种将人工智能集成到现有软件堆栈中的淘金热充满了新的法律和商业风险,但他们在决定何时推出新功能方面的权力却很有限。 仓促上阵的工程师 谷歌联合创始人之一谢尔盖·布林(Sergey Brin)周六回应了这些投诉,声称模型的左倾倾向并非公司本意,公司高管正在努力解决这些问题。 首席执行官桑达尔·皮查伊(Sundar Pichai)也为此事道歉,并在给员工的备忘录中承诺进行结构性改革,尽管有传言称有些人宁愿他下台。 布林表示,这些奇怪的图片很可能是由于缺乏全面的测试造成的,The Verge的亚历克斯·希思(Alex Heath)则将此归咎于员工急于交付产品。 希思指出,“双子座”应用程序中使用的照片生成功能是由较早的文本到图像模型驱动的,“双子座”中加入该功能是为了更快地推出该功能,这就是谷歌仓促行事的一个例子。 The Verge还报道称,建立底层模型的研究团队与将其应用到产品中的团队之间缺乏协调。 谷歌的“双子座时代”就是为了应对GPT-4 皮查伊在去年年底声称,谷歌正在进入“双子座时代”。 该模型被广泛认为是该公司对OpenAI GPT-4的回应,后者得到了微软的大力支持,已经为该公司的许多人工智能产品提供了动力。 谷歌一直不甘落后于老对手,紧随微软推出了类似的产品,包括人工智能驱动的搜索和工作场所助手。 “双子座”的图像生成失误并不是谷歌第一次因其人工智能而公开出丑。 去年,谷歌的人工智能聊天机器人“巴德”(Bard)在首次现场演示时就出了差错。这一失误无意中凸显了用聊天机器人取代搜索引擎的危险,导致谷歌母公司Alphabet股价暴跌。 微软和OpenAI的技术也出现过类似失误。在巴德失误几天后,微软的人工智能必应开始向用户提供“不正常的回复”,包括爱的表白和愤怒的争论。 但谷歌一直努力将自己定位为负责任的人工智能守护者。在去年《金融时报》的一篇专栏文章中,皮查伊说,“负责任地打造人工智能的竞赛”甚至比交付用户产品的需求更重要。 格维茨说,对谷歌来说,“双子座”争议的主要问题在于其品牌认知。 格维茨表示,大多数人之前都认为谷歌是“中立”的,从未真正问过自己,他们的搜索引擎提供商代表着什么。 牛津互联网研究所教授桑德拉·瓦赫特(Sandra Wachter)表示,技术应该用来解决问题,而不仅仅是击败他人进入市场的一种方式。 瓦赫特说,公司并非存在于真空中,它们的行为会对个人和社会产生影响。 她补充说:”这个世界不是一个沙盒,也不是一个大型的现场实验,因此我们必须慎重对待向市场开放的产品以及开放的时间“。 谷歌公司的代表没有立即回应《商业周刊》的置评请求。(都市网Rick编译,图片来源星岛资料图) (ref:https://www.businessinsider.com/google-gemini-firestorm-big-tech-ai-arms-race-2024-3)

華裔律師提交AI虛構案 專家稱這是一記警鐘

(Westside Family Law 网页上显示 Chong Ke 的工作图) 【星岛都市网】温哥华科技律师瑞安·布莱克(Ryan Black)与视频游戏公司的合作使他有幸目睹了人工智能在该行业的兴起。 现在,他发现自己又站在了前线,因为他自己的行业也在努力应对这项技术。 布莱克曾帮助卑诗省法学会为律师起草有关使用人工智能的建议。他说:“人工智能对游戏工作室的影响程度着实让人大吃一惊”。 布莱克表示,生成式人工智能革命对人们的冲击非常大,那种可以根据用户提示创建论据和文章的技术对很多人来说都是一件新鲜事。 “律师们对此了解不多,这并不让我感到惊讶”。 布莱克说,像ChatGPT这样的生成式人工智能工具的兴起是“法律实践的革命性变化”,但法律专家表示,卑诗省最高法院最近的一项裁决表明,律师必须谨慎和怀疑地使用这项技术。 在2月20日公布的与一起儿童监护权案件有关的裁决中,温哥华的华裔律师轲翀(Chong Ke)被披露使用ChatGPT准备案件中提交的材料。 这些材料包括引用不存在的案例,她的对手称这是人工智能的“幻觉”。 轲翀告诉法庭,发现引用的案例是虚构的“令人羞愧”,她迅速通知了律师协会,并承认“不了解”使用人工智能起草法庭材料的“风险”。 轲翀在一份宣誓书中说:“我现在意识到了依赖人工智能生成材料的危险性。我知道这个问题在其他司法管辖区也出现过,而且律师协会在最近几个月发布了一些材料,旨在提醒卑诗省的律师注意这些危险”。 轲翀向法庭和她的律师同事道歉。 她的律师约翰·福斯特龙(John Forstrom)在一封电子邮件中说,此案“引起了公众的极大兴趣,但事情的实质并不引人注目”。 福斯特龙说:“我不确定此案对在法庭诉讼中使用生成式人工智能是否有重大影响”。 “柯女士在本案中使用人工智能是一个公认的错误。在法律工作中是否或如何适当地使用人工智能的问题并没有出现”。 协会发言人克里斯蒂娜·谭(Christine Tam)在一封电子邮件中说,协会目前正在调查柯的行为。 谭表示:“在认识到使用人工智能提供法律服务的潜在好处的同时,律师协会也向律师们发布了关于适当使用人工智能的指导意见,并希望律师们在依赖人工智能为客户提供服务时,能够遵守合格律师应有的行为标准”。 律师协会于2023年底发布的指南敦促律师寻求使用该技术的培训,并注意数据安全的保密问题、抄袭和版权问题,以及该技术产生的材料中可能存在的偏见。 其他省份和地区的法律协会和法院也制定了关于使用人工智能的指南。例如,育空最高法院在2023年6月的一份实践指南中指出,如果任何律师在任何事项中以任何形式依赖人工智能进行法律研究或提交材料,他们必须告知法院。 对于DLA Piper律师事务所的布莱克来说,人工智能的使用正在引起很多必要的焦虑,担心依赖这样的工具来完成任何真正繁重的工作。 布莱克说,伸张正义需要“人类同行”的公正,能够评估并做出具有法律约束力的重要决定。 他说,他遇到的律师和法官有的“完全投入其中,有的完全反感,有的则完全不可知论”。 他说,他对技术的发展速度印象深刻,但对于现在和未来的律师来说,需要对材料生成的任何材料保持谨慎和怀疑的态度。 布莱克在反思轲翀案和其他类似案件时说,像ChatGPT这样的工具是非常好的自动更正工具,在将文本与其他文本联系起来方面做得非常出色,但它们不了解世界,不了解现实。 卑诗大学法学教授克里斯汀·托马斯恩(Kristen Thomasen)在接受采访时说,卑诗省最高法院的案例不仅表明了技术的局限性,也表明律师和其他专业人士需要对他们正在使用的技术持批判态度。 托马斯恩说,尽管经常有很多炒作,但必须对技术的优缺点进行评估。 她说,在法律和警务等“高风险”职业中,重要的是不要将需要人工操作的工作委托给计算机系统,因为在这些职业中,应该谨慎对待和使用可能存在问题的新技术。 托马斯恩说,这种技术被描述为“活物”或对人类生存的威胁,或者被认为是“机器中的超人幽灵”,尽管它非常复杂,但它只是根据从互联网上获取的数据进行计算。 她说,从将其视为“人”上退一步下来,将有助于机构、学生和教师更好地理解这项技术的实际作用。 她说:“当我们看到它是如何发展的,我认为,就像法律协会一样,当我们更好地了解这项技术是什么样子的时候,不断制定更完善、更详细的准则或规则是有意义的”。 轲翀所涉案件的法官表示,如果有其他材料采用了像 ChatGPT 这样的人工智能技术,她应该“谨慎”地告诉法庭和对方律师。 “不幸的是,本案表明,生成式人工智能仍然无法替代司法系统对律师要求的专业知识,”大卫·苏哈拉(David Masuhara)法官在其裁决中写道。“选择和使用任何技术工具,包括由人工智能驱动的工具,能力至关重要。司法系统的诚信要求也是如此”。 布莱克说,人工智能技术不会消失,由于其发展的惊人速度,现在制定的任何规则都可能需要改变。 “我们现在肯定处在一个人工智能将会存在的世界,”他说。“在我看来,这种影响是不会消失的。”(加通社,都市网Rick综合编译,图片来源星岛资料图)

Wendy’s全面擁抱AI 將根據情況動態調整價格

  【星岛都市网】温迪(Wendy's)计划最早从明年开始为其快餐产品推出动态定价。 温迪在给环球新闻的一份声明中说,该连锁店将在美国的一些餐厅开始测试新的定价系统。目前,温迪还没有在加拿大引入这种系统的计划,至少目前还没有。 动态定价也被称为“激增定价”,是一种为产品和服务设定灵活价格的做法,这意味着顾客支付的价格可以根据市场需求进行浮动。Uber就是一家采用动态定价的著名公司。在繁忙时段,Uber汽车共享服务的价格通常高于客流量较低的时段。 “我们正在对技术进行重大投资,以加速我们的数字化业务,”温迪公司在谈到这一变化时说。“除了发展我们的忠诚度计划,这些投资带来的其他好处之一就是可以更灵活地更换菜单,并通过数字菜单卡等创新方式向顾客提供折扣和超值优惠”。 该公司表示,这一新政策旨在根据天气等因素,在一天中较为清淡的时段推动销售。 “预计到2025年,我们将测试一系列功能,如人工智能菜单更改和基于天气等因素的建议性优惠,我们认为这些功能将提供巨大的价值,并改善顾客和员工的体验,”温迪公司表示。 温迪公司首席执行官柯克·坦纳(Kirk Tanner)在本月早些时候的一次电话会议上讨论了这一政策。 他说:“随着我们继续在公司经营的餐厅展示这项技术的优势,加盟商对数字菜单板的兴趣应该会增加,从而进一步支持整个系统的销售和利润增长”。 根据公司第四季度财报,温迪计划斥资约3000万美元,支持在2025年底前在美国公司经营的所有餐厅推广数字菜单板,并在未来两年内增强全球系统的数字菜单板。 坦纳曾长期担任百事公司高管,本月初出任温迪公司首席执行官。他接替了自2016年以来一直担任温迪公司总裁兼首席执行官的托德·佩内戈(Todd Penegor)。 去年,佩内戈宣布了一项重组计划,旨在加快决策速度,并加大对新餐厅开发的投资,尤其是在海外。该连锁店及其加盟商在全球经营着约7000家餐厅。(都市网Rick编译,图片来源星岛资料图) (ref:https://globalnews.ca/news/10320406/wendys-surge-pricing-ai-menu-changes/)

人工智能在加拿大拯救生命 心臟病患者的福音

  加拿大心力衰竭的发病率急剧上升,专家表示,现在比以往任何时候都更需要准确的预后工具。然而,在这一充满挑战的环境中,人工智能(AI)领域却出现了希望。 多伦多彼得蒙克心脏中心(Peter Munk Cardiac Centre)的研究人员推出了SEATTLE HF,这是一种人工智能系统,与医生相比,它能准确预测患者的心脏健康状况。 彼得蒙克心脏中心的心脏病专家卡罗琳娜·阿尔巴(Carolina Alba)博士解释说:“我们认识到,我们一次能整合的信息有限”。 “当然,(医生)训练有素,我们有丰富的经验为成千上万的特定病症患者看病,但我们知道我们的大脑是有限的。现在,我们可以依靠使用预测模型”。 阿尔巴告诉《环球新闻》,人工智能工具的目标不是取代医生,而只是协助他们为病人做出更好的判断,无论是建议心脏手术、调整药物剂量还是探索替代疗法。 “现在,我们依靠家庭医生的判断或我们的判断来做出这些决定。我们知道,我们的判断有些偏差。因此,通过这些模型,我认为我们可以更好地分配资源,并确保我们可以帮助每一个从这类护理中获益最多的人,”她说。 根据心脏与中风基金会(Heart and Stroke Foundation)的数据,约有 75 万加拿大人患有心力衰竭,这是一种由于心脏功能不全或其结构出现问题而导致的慢性疾病。 每年有 10 万人被诊断出患有这种不治之症。不仅在加拿大,在全世界,这个问题也日益严重。 虽然心力衰竭无法治愈,但早期诊断和正确的治疗方案可以延长患者的预期寿命并提高生活质量。 为了测试使用人工智能治疗心脏病的效果,阿尔巴和一组研究人员收集了加拿大11家心脏病诊所的数据,并对患者进行了为期一年的监测。然后,他们将家庭医生和心脏病专家的预测与计算机模型生成的预测进行了比较。 比较结果表明,人工智能比医生更精确,而医生往往会高估病人的风险。 “一般来说,医生倾向于高估风险。我认为这是人类的天性。我们总是做最坏的打算,当不好的事情即将发生时,我们总是试图将风险降到最低,或者试图将最好的结果最大化,”阿尔巴说。 “使用这些没有附加情感体验的数学模型,我们可以利用这个模型来帮助我们校准风险评估。这样,我们就能更好地与病人讨论现实中可能发生的情况,而不仅仅是基于我们的经验、情绪和判断”。 通过向人工智能工具输入患者特征、血液检查结果、病史和是否存在合并症,医生可以获得预测结果,例如患者一年内的死亡风险。有了这些信息,医生就能在病人护理方面做出更明智的决定。 例如,医生可以评估病人是否需要进行移植、安装机械心脏或药物治疗。 她说:“如果我们的病人风险较低,它还可以建议病人不要使用大量药物,因为这些药物可能带来的益处很少,而且可能会让病人面临不必要的风险或成本”。 使用人工智能工具的另一个好处是有助于减轻已经捉襟见肘的医疗系统的压力。 例如,加拿大心脏与中风基金会的帕特里斯·林赛(Patrice Lindsay)强调了这项技术如何帮助管理移植等待者名单。 她告诉《环球新闻》:“结合我们自己的观察和人工智能,我们可以预测人们的健康状况何时开始加速下降,并帮助他们获得更紧急的护理”。 “因为对于心脏移植来说,现实情况是有些人无法完成手术,他们会在等待期间去世。因此,如果我们能鼓励更早地做出一些这样的改变,我们就能调整等待名单和等待时间,帮助其中一些人更快地得到治疗。” 她强调,人工智能不仅能“拯救生命”,还能让病人活得更长、更健康。 阿尔巴对此深有同感,她强调说,加拿大的许多心脏诊所都处于饱和状态,导致众多患有心力衰竭的加拿大人排队等待重要的治疗。 然而,利用人工智能工具可以确保专科门诊满足高风险患者的需求,而低风险病例则由家庭医生管理--减轻了系统的负担,她说。 尽管人工智能工具已被证明在协助医生更好地为病人服务方面非常有用,但彼得蒙克心脏中心的人工智能科学家瓦利加·苏巴斯里(Vallijah Subasri)强调了进一步整合到医院的必要性。 她说:“医院需要在基础设施层面做出很多改变,才能真正赶上一些科技公司和其他行业的步伐。但我认为,现在终于有了对话,人工智能的价值也真正被看到了。” 她说,彼得蒙克心脏中心的SEATTLE HF等工具的下一步是尝试将其投入诊所,培训家庭医生,并真正以安全和负责任的方式使用。 阿尔巴解释说,虽然模型是准确的,但它们仍未经过临床实践的检验。 她说:“这就像我们或多或少知道,我们刚刚在实验室里发现了一种有效的疗法,可以帮助病人治愈疾病。现在我们正处于这样一个阶段,我们必须测试这些预测模型的使用情况,以确保我们能够帮助病人”。 (ref:https://globalnews.ca/news/10293764/ai-tool-heart-failure-prediction-canada/)

Meta宣布將識別並標記人工智能生成的圖像

【星岛都市网】Meta今(6日)宣布,将识别Facebook和Instagram图像是否为人工智能生成的图像,如果图像由人工智能生成,将会贴上“用人工智能想像”的标签,直言旨在区分真实与虚假。Meta表示正与行业合作伙伴合作制定技术标准,更容易识别影片及图像是否由人工智能生成。 现时制作和传播人工智能生成的图像或会影响当事人及公众,Cornell University资讯科学助理教授Gili Vidan表示,表明Meta正在认真处理上线虚假内容,她提到标记大部分以人工智能生成的“非常有效”,但无法捕获所有内容。 Meta全球事务总裁Nick Clegg没有公布标签何时会出现,但表示将在未来几个月内,以不同的语言出现,“随着人类内容和合成内容之间的区别变得模糊,人们想知道边界在哪里”。 现时很许多科技产业合作,包括Adob​e领导的“内容真实性计划”,一直努力制定标准,推动人工智能生成内容的数位浮水印和标签也是美国总统拜登10月签署的行政命令的一部分。 Clegg表示Meta将致力标记“来自 Google、OpenAI、微软、Adobe、Midjourney 和 Shutterstock的图像”,Google去年表示,人工智能标签将登陆YouTube及其他平台。 YouTube 执行长Neal Mohan重申,在接下来的几个月中,将推出标签,告知观众他们所看到的内容是否为合成。 (图:美联社)T11

「AI教父」黃仁勛到訪加拿大 與聯邦簽署意向書

【星岛都市网】联邦工业部长商鹏飞(Francois-Philippe Champagne)表示,加拿大已与人工智能(AI)晶片巨头辉达(Nvidia)签署了一份意向书,以提高运算能力。 加通社报道,商鹏飞在X(以前称为Twitter)上发布的一篇文章中宣布,该意向书是与这家总部位于加州的巨头签署的,该公司最近见证了人工智能创新的竞赛,使其估值突破了1.5兆元大关。 辉达创办人“AI教父”黄仁勋(Jensen Huang)在周四(1日)访问多伦多期间,双方都没有透露有关内容。 黄在周四晚间接受加通社采访时表示:“商鹏飞部长希望得到我的支持,确保加拿大能够获得领先的技术,以便在必要的资金支持下,建设自己的基础设施,我对此非常热心。” “自从深度学习开始以来,我们一直是加拿大的合作伙伴……因此,这是我们投资的一个非常重要的地区,一个我们投资的非常重要的国家。” 加拿大并不是唯一一个优先考虑人工智能基础设施的国家。黄说,日本、韩国、马来西亚、新加坡、英国、法国和意大利都关注这个主题。 然而,加拿大面临的机会是独一无二的。 黄认为加拿大是现代人工智能的发源地,因为这项技术的两位“教父”班哲路(Yoshua Bengio)和辛顿(Geoffrey Hinton)很早就在加拿大完成了人工智能研究。两人最终赢得了通常被称为“电脑界的诺贝尔奖”的图灵奖(Turing Award)。 班哲路和辛顿此后建立了人工智能研究中心:多伦多的Vector Institute和满地可的Mila。 黄仁勋指,加拿大在满地可和多伦多之间拥有深入且规模相当大的人工智能研究。“不要浪费这一点,并确保这些研究人员拥有他们所需的仪器和资金,以继续推进他们在很多方面的科学发明。” 黄仁勋周四穿着他标志性的黑皮褛,在多伦多四季酒店(Four Seasons Hotel)一边吃着寿司和滑块,一边接受加通社记者的采访。 早些时候,他与自动驾驶公司Waabi的 Raquel Urtasun、人工智能宠儿Cohere的Aidan Gomez、Vector Institute的Alán Aspuru-Guzik和药物发现公司Deep Genomics的Brendan Frey一起在受邀人群面前同台。 “为了加速加拿大的生态系统,我们必须做很多不同的事情,”黄告诉观众。 “部分需要政府的鼓励和支持,部分是为了激励年轻研究人员继续在加拿大进行研究,部分是为了在他们毕业后为他们创造机会。” 他强调加拿大并不缺乏研究或人才。 黄仁勋1963年生于台湾台南市,父亲是化学工程师,母亲是小学老师。童年时,一家人由于父亲工作原因曾暂居泰国。1973年,泰国社会动荡,他再随父母移民美国。 他于1993年在美创立图形晶片公司辉达,并担任首席执行官兼总裁至今。 图:加通社 V6

華裔律師用ChatGPT準備法庭材料 提交虛假案例遭批!

【星岛都市网】加拿大首例涉及人工智能创造假法律案件的情况发生在卑诗省法院中,当事人是一名华裔律师。 《Global News》报道,律师麦克莱恩夫妇 (Lorne and Fraser MacLean) 在卑诗省的一起民事案件中发现了对方律师向法院提交虚假判例。 洛恩·麦克莱恩说:“此案的影响令法律界感到不寒而栗。如果我们不对人工智能材料进行事实核查,而它们不准确,可能会对法律体系造成生存威胁:人们浪费金钱,法院浪费资源和税收,而且存在判决错误的风险,所以这是一件大事。” 消息人士透露,此案是一个高净值家庭问题,涉及儿童的最大利益。 据称,律师柯冲 (Chong Ke,音译) 利用 ChatGPT 准备法律材料,以支持一名父亲带孩子去中国访问的申请,她提出了多个实际上不存在的案件判例提交给法院。 柯冲对法庭表示,她不知道像 ChatGPT 这样的人工智能机器人可能不可靠,也没有检查案件是否确实存在,并向法庭道歉。 周二,柯冲离开法庭时泪流满面,并拒绝发表评论。 (Westside Family Law 网页上显示 Chong Ke 的工作图。)  众所周知,像 ChatGPT 这样的人工智能聊天机器人有时会编造听起来很真实但不正确的讯息,这个过程被称为“幻觉”。 这个问题已经渗透到美国的法律体系中,已经发生了几起事件,让律师感到尴尬,并引发了人们对可能损害对法律体系信心的担忧。 一个案件是一名纽约律师因提交了包含 ChatGPT 的虚构案件的法律摘要而被法官处以罚款,该律师坚称这一事件是善意的错误。 另一起案件中,特朗普的前律师科恩 (Michael...

擔心人工智能?如何為下一份簡歷積累技能

  【星岛都市网】业内专家表示,获得足够的人工智能知识以跟上加拿大科技行业不断发展的需求并不困难。 随着越来越多的免费课程在网上提供,而且最近的行业报告显示,今年求职者比以往任何时候都更需要展示人工智能方面的技能,利用这项技术的全球竞赛正在加深。 加拿大科技界人士最近告诉加通社,寻找能够开发人工智能产品或利用人工智能提高效率的员工是当务之急。 多伦多MaRS创新中心的高级顾问杨珍妮(Jenny Yang)说:“每个人都在寻找懂得使用人工智能的人。随着越来越多的招聘单位在其职位列表中添加各种人工智能技能,有一些简单的方法可以确保你能勾选这些选项,让自己脱颖而出”。 微软(Microsoft)、领英(LinkedIn)、谷歌(Google)、亚马逊(Amazon)、IBM、哈佛大学(Harvard University)和佐治亚理工学院(Georgia Tech)等公司和大学都在为想要了解更多信息的人提供免费培训和课程。 亚马逊去年11月发布的研究表明,三分之二(66%)的加拿大雇主优先考虑拥有人工智能技能的求职者。然而,其中 77% 的雇主在招聘合格人才时面临困难。 研究发现,83% 的受访组织预计到 2028 年将使用人工智能驱动的解决方案。研究还发现,雇主愿意多支付至少 25% 的费用来聘用具有人工智能技能的人才。 研究结果表明,为雇主提供人工智能技能人才存在两个障碍。 亚马逊发现,最大的障碍是雇主对如何为现有员工获取人工智能技能缺乏了解。其次,雇主对有哪些人工智能培训项目缺乏了解。 亚马逊的研究在一定程度上促使该公司在去年推出了一项名为“AI Ready”的新举措,致力于到 2025 年在全球范围内为 200 万人提供人工智能培训。 亚马逊网络服务公司(Amazon Web Services)加拿大教育主管科拉尔·肯尼特(Coral Kennett)说:“我们真的想让每个人都知道,这些技能对任何人都是可及的”。 该计划提供的一个项目名为“DeepRacer”,用户可以通过虚拟赛车学习AI技能。去年在温尼伯举行的一次DeepRacer活动吸引了众多人参加,甚至有一些人来自加拿大猪肉委员会(Canadian Pork Council)。 肯尼特告诉《环球新闻》:“从完全没有人工智能方面的经验,到想要重新掌握技能的人......它确实适合所有人”。 对于希望获得人工智能经验的人来说,肯尼特最大的建议就是直接进入并开始探索。没有必要再去读大学的书,有很多资源可供有需要的人使用。 “无论你有多少时间或预算,都有很多不同的选择,”她说。“开始你的旅程吧,看看它会带你走向何方”。 另一位科技业内人士赞同肯尼特的观点,认为现在正是熟悉 ChatGPT 等关键人工智能工具的时候。 杰里米·沙基(Jeremy Shaki),他是灯塔实验室(Lighthouse...

微軟30年來首次對Windows PC鍵盤進行了改動

【星岛都市网】电脑现在可以在alt键和左箭头键之间加入一个“Copilot键”,它可以打开微软的人工智能工具。 Windows Copilot的作用是帮助完成一些困难或琐碎的任务,如撰写或总结冗长的电子邮件,或制作人工智能生成的股票图像,以便在演示文稿中使用。微软称其为“副驾驶员”(copilot),是因为它旨在协助完成这些任务,而让用户自己负责。 新键标志着自1994年推出Windows键以来PC键盘的首次改变。Windows键用于调出开始菜单,但用户经常改变它的用途,或将它与其他键组合使用,以获得额外的选项。 几乎任何键盘都可以与Windows PC配合使用,现有的键盘显然不会有新的按键。但是,微软对Windows和自己的硬件键盘的改动往往会在市场上引起广泛而迅速的变化,Windows键就是如此。 微软表示,许多即将上市的电脑都将集成Copilot键,包括将在下周消费电子展上发布的电脑。该公司表示,这种键盘将从二月下旬到春季上市,包括即将上市的Surface设备。 微软表示,新的变化是“我们在Windows发展历程中的又一个变革性时刻”。微软表示,新Copilot键的推出标志着 “AI PC”时代的开始。 微软在公告中说:“我们相信,这将使人们能够更轻松地参与人工智能变革。Copilot键与Windows键一样,是PC键盘的核心部分,按下后,新键将调用Windows中的Copilot体验,让Copilot无缝地参与到你的日常工作中”。 微软还指出了其他工作,包括依赖机器学习的新软件功能,以及与芯片公司合作,确保芯片为人工智能工作进行优化。 目前,Copilot还不是随处可用。如果电脑无法访问它,按下按钮将打开Windows Search。(都市网Rick编译,图片来源官网截图) (ref:https://www.independent.co.uk/tech/microsoft-keyboard-windows-pc-copilot-key-b2473092.html)

人工智能會有意識嗎?我們迫切需要答案

  【星岛都市网】人工智能会有意识吗?目前没有人知道,数学意识科学协会(AMCS)的三位科学家对相关问题缺乏调查研究表示担忧。 AMCS三位领导人呼吁提供更多资金来支持意识和人工智能的研究。他们表示,法律和安全问题使理解人工智能意识变得至关重要。例如,如果人工智能发展出意识,是否应该允许人们在使用后简单地关闭它们? AMCS董事会成员乔纳森·梅森(Jonathan Mason)是英国牛津的数学家,也是评论的作者之一,他说,最近关于人工智能安全的讨论,比如备受瞩目的英国人工智能安全峰会,大多没有这种担忧。梅森指出,美国总统拜登寻求负责任地开发人工智能技术,他的行政命令也没有解决有意识的人工智能系统提出的问题。 梅森说:“随着人工智能的发展,不可避免地会有其他邻近的科学领域需要迎头赶上。意识就是其中之一”。 另两个评论的作者是AMCS主席莱诺尔·布卢姆(Lenore Blum),他是宾夕法尼亚州匹兹堡卡内基梅隆大学的理论计算机科学家,以及董事会主席约翰内斯·克莱纳(Johannes Kleiner),他是德国慕尼黑路德维希·马克西米利安大学研究意识的数学家。 科学界还不知道是否存在或将永远存在有意识的人工智能系统。梅森说,哪怕只是知道是否也将是一个挑战,因为研究人员还没有创造出科学验证的方法来评估机器中的意识。 这样的担忧不再只是科幻小说。包括创建聊天机器人ChatGPT的OpenAI公司在内的公司正致力于开发通用人工智能,这是一种经过训练的深度学习系统,可以执行与人类类似的各种智力任务。一些研究人员预测,这将在5到20年内实现。梅森说,即便如此,意识研究领域还是“支持不足”。他指出,据他所知,2023年还没有一笔资助来研究这一主题。 AMCS的研究人员表示,了解什么可以使人工智能有意识,对于评估有意识的人工智能系统对社会的影响,包括其可能的危险,是必要的。人类需要评估这些系统是否具有人类的价值观和利益。否则,它们可能会给人们带来风险。 AMCS的评论中提出的一些问题是法律问题,以强调意识问题的重要性:有意识的人工智能系统是否应该对故意的不当行为负责?它是否应该被赋予与人民相同的权利?该联盟写道,答案可能需要对法规和法律进行修改。 此外,科学家还需要教育其他人。梅森说,随着公司设计出越来越强大的人工智能系统,公众会怀疑这些系统是否有意识,科学家需要有足够的知识来提供指导。 其他意识研究者对此表示赞同。位于博卡拉顿的佛罗里达大西洋大学未来思维中心主任、哲学家苏珊·施奈德(Susan Schneider)表示,像ChatGPT这样的聊天机器人的行为看起来非常像人类,人们有理由对此感到困惑。如果没有科学家的深入分析,一些人可能会得出结论,认为这些系统是有意识的,而其他公众可能会忽视甚至嘲笑对人工智能意识的担忧。 为了减轻风险,AMCS的评论呼吁政府和私营部门资助更多关于人工智能意识的研究。推进这一领域不需要太多资金。(都市网Rick编译,图片来源pixabay) (ref:https://www.nature.com/articles/d41586-023-04047-6)

人工智能心理治療:機械人真的能替代人類嗎?

  【星岛都市网】心理健康顾问妮可·多伊尔(Nicole Doyle)感到震惊,当美国全国饮食障碍协会的负责人出现在员工会议上,宣布该团体将用聊天机器人替代其热线服务。几天后,这个名为特莎(Tessa)的机器人也因为向处于心理疾病中的人提供有害建议而被停用。 “人们发现它对告诉它他们正在与饮食障碍作斗争的人提供了减肥建议,”33岁的多伊尔说,她是在聊天机器人推出大约一年后于三月被解雇的五名工人之一。 “虽然特莎可能模拟出同情心,但这与真正的人类同情心不同,”多伊尔说。 全国饮食障碍协会(NEDA)表示,尽管机器人背后的研究产生了积极的结果,但他们正在确定所给出的建议发生了什么,并“仔细考虑”下一步行动。NEDA没有直接回应有关顾问裁员的问题,但在电子邮件评论中表示,聊天机器人从未打算取代热线。 从美国到南非,随着健康资源的紧张,使用人工智能的心理健康聊天机器人在全球范围内越来越受欢迎,尽管技术专家对数据隐私和咨询伦理表示担忧。 尽管聊天机器人在全球范围内用于心理健康支持的受欢迎程度不断增加,但Mozilla基金会在2022年5月发布的研究中发现,对于用户来说,隐私问题仍然是一个主要的风险。 研究人员得出结论,认为“人工智能助手可能能够帮助起草对患者问题的回答”,而不是完全取代医生。 但是,尽管机器人可能模拟出同情心,但当人们拨打求助热线时,他们渴望的永远是人类的同情心,前NEDA顾问多伊尔说。 “我们应该使用技术与我们人类一起工作,而不是取代我们,”她说。 随着技术的进步,人工智能在各个领域的应用越来越广泛。然而,当涉及到人的情感和心理健康时,我们必须更加谨慎。机器人或许可以提供即时的回应和建议,但它们永远无法完全理解和体验人类的情感。在寻求心理健康支持时,真正的人类交互仍然是不可替代的。(都市网Rick编译,图片来源pixabay) (ref:https://www.jpost.com/health-and-wellness/article-746992)

人工智能將如何顛覆您的工作

  【加拿大都市网】生成式人工智能应用已迅速登陆工作场所。 生成式人工智能应用程序和平台--只需有限的人工输入即可生成智能的书面内容和令人惊叹的视觉图像--任何人都可以使用。一些领导者不知道生成式人工智能已经在他们的组织中使用,以更有效和高效地完成日常任务。 虽然这种尝试值得称赞,但也存在风险。无论是领导者、工程师还是企业家,没有人完全了解这项技术的潜力。然而,早期的反应与人们对人工智能的一贯看法如出一辙:人工智能将取代我们的工作。 在不远的将来,劳动力工具和流程将与某种形式的生成式人工智能无缝集成。文字处理器将像编辑器一样工作,以前复杂的照片编辑工作将由任何人来完成,而人工智能将彻底改变许多其他资源。但是,要在未来实现与人工智能的无缝融合并非易事。 利用人工智能将成为一项必备技能 我们已经看到,由于人工智能的发展,一些新的工作岗位应运而生。尽管如此,许多工人仍在关注人工智能将淘汰的工作。他们不应该这样。未来,我们都需要根据自己的角色学习如何与人工智能交互--就像我们都学会了使用谷歌快速获取信息的最佳方法一样。例如,律师必须了解生成式人工智能应用在判例法方面可能存在的局限性或知识差距。我们肯定会看到生成式人工智能的用例出现在我们的许多角色中,但不要指望整个行业或领域会因此而消失。如果你不考虑用人工智能驱动的工具来增强你的工作流程,你将在未来落后。 新一代人工智能将带来安全挑战 新一代人工智能可能会带来风险。任何热门的新技术都有这种可能性,但我们已经看到了滥用生成式人工智能的例子。甚至一些大公司,如三星,也在数据泄露后命令员工减少或停止使用这些应用。如果您是领导者,现在就应该开始询问如何以及在何处使用这项技术。与三星一样,您可能在不知不觉中暴露了无数客户、供应商和合作伙伴的数据。 您的公司如何才能拥抱人工智能,而不是完全将其拒之门外? 如果您认为保护自己的唯一方法就是禁止使用人工智能生成工具,那么您将在未来被其他公司超越。现在就挑战自己,降低风险,开拓机遇。 生成式人工智能替代 "胶水工作" 经常听到有人将某些工作描述为维系组织的 "粘合剂"。这可能是将便利贴笔记转换成数字时间表的法律文员,也可能是在快速会议期间以记录清晰笔记而闻名的助理。这些工作看似不可或缺,但生成式人工智能将迅速填补这些角色的某些方面。对于那些可能会被淘汰的人来说,他们有很大的机会进行再培训和继续教育,这就需要当权者积极主动地提供这些支持。那些深入思考这一转型的公司将更好地最大化其退出速度。而那些将这一问题留待日后解决的公司则很可能被抛在后面。 不管你喜不喜欢,生成式人工智能都将改变游戏规则。与其他颠覆性技术一样,在工作场所释放生成式人工智能的潜力并非一蹴而就。如果您接受人工智能的潜力,并努力克服它带来的风险和挑战,您将创造一个更有可能、更快速、更先进的环境。(都市网Rick编译,图片来源pixabay) ref:(https://qz.com/how-ai-will-disrupt-your-job-1850614840)

兒童求助熱線引入人工智能 識別關鍵字加快辨認嚴重個案

【加拿大都市网】儿童求助热线正应对AI带来的影响,尝试在求助对话中以人工智能将对话进行分类。 自 COVID-19 大流行开始以来,针对儿童和成人的 24-7 全国支持热线的服务需求大幅增加。 根据该组织提供的数据,儿童求助电话在 2019 年接到约 190 万个电话、短信、实时聊天或访问其网站后,自 2020 年以来该数字已跃升至超过 1500 万个。 如果有人在对话中表示“我感到绝望、我想死”之类的内容,人工智能将会把相关对话优先给予辅导员。 Vector 首席数据官兼健康部门副总裁 Roxana Sultan 表示,将人工智能视为一种工具,而不是人类的替代品,是在医疗保健中负责任地使用该技术的关键部分。她表示,如果儿童在交流中使用相关词语,将会对专业人员发出警报。 加拿大心理健康委员会优质心理健康服务部门经理Maureen Abbott表示,人工智能在心理健康领域的应用在全国范围内呈上升趋势。   (图:加通社)T12

許多公司紛紛禁止ChatGPT 他們在怕什麼?

  【加拿大都市网】ChatGPT作为一种诱人的助手在许多职业中得到了应用,但并非没有风险,一些公司已经开始在工作中禁止使用这款聊天机器人。 上传与工作相关的信息到在线人工智能平台显然是一种潜在的安全和隐私风险。然而,对于一些感觉时间紧迫的人来说,ChatGPT可以带来很大的帮助。 特别是,软件工程师发现ChatGPT在编写、测试或调试代码方面非常有用,尽管这项技术容易出错。 根据对约12,000名专业人士的调查,大约43%的员工在工作中使用像ChatGPT这样的AI,大部分人都没有告诉他们的老板。 三星电子最近对生成式AI的使用进行了打击,因为一名工程师将敏感的源代码复制粘贴到了ChatGPT中,这是科技公司的噩梦。 和许多公司一样,三星担心任何上传到ChatGPT或Google Bard等AI平台的信息都将存储在这些公司的服务器上,没有办法访问或删除。 人们担心的是,给ChatGPT的专有或敏感公司信息可能会无意中与其他用户共享。 OpenAI仍在解决安全问题:它在三月份暂时关闭了ChatGPT,以修复一个错误:用户可以看到其他用户的聊天历史标题。 然后,在四月份,OpenAI使用户可以关闭他们的聊天历史,该公司表示这将阻止ChatGPT使用数据来训练其AI模型。 由于聊天机器人周围的各种安全问题,大约有一半的人力资源领导人正在为员工制定ChatGPT指南,而3%的人直接禁止了ChatGPT,这是咨询公司Gartner的一项调查结果。 然而,一些公司认识到AI大势滚滚无法阻挡,已经开发或正在创建他们自己的AI平台,作为比ChatGPT更安全的替代品。 亚马逊在一月份禁止了ChatGPT,并敦促其开发人员如果他们想要编程建议或捷径,使用其内部AI称为CodeWhisperer。 在五月份,苹果公司限制了一些员工使用ChatGPT,以防止机密信息的暴露。苹果正在开发其自己的AI平台,与得到了微软数十亿美元投资支持的ChatGPT竞争。 澳大利亚联邦银行在六月份限制了ChatGPT的使用,并指示技术人员使用一种名为CommBank Gen.ai Studio的类似工具,该工具是与硅谷科技公司H2O.ai合作开发的。 其他银行,包括美国银行,花旗集团,德意志银行,高盛,富国银行和摩根大通,都对ChatGPT发出了直接禁止。 会计师事务所普华永道鼓励员工尝试使用ChatGPT,但警告他们不要将该程序用于客户工作。 普华永道的首席数字信息官Jacqui Visch告诉《金融评论》:“我们的政策不允许我们的人员在等待我们对所有技术创新应用质量标准以确保安全的过程中使用ChatGPT。” 根据对来自美国、英国和加拿大的400多名法律专业人士的调查,大约15%的律师事务所已经对ChatGPT发出了警告。总部设在英国的律师事务所Mishcon de Reya因数据敏感的风险禁止使用AI平台。 在五月份,西澳大利亚的五家医院的员工被告知停止使用ChatGPT,一些人使用该平台编写私人医疗记录。 “重要的是,目前,我们不能保证使用AI机器人技术,如ChatGPT时的患者机密性,我们也不完全了解安全风险,”珀斯南部城市医疗服务负责人Paul Forden说。 他说:“出于这个原因,必须立即停止使用AI技术,包括ChatGPT,进行包含任何患者或潜在敏感健康服务信息的工作相关活动。” 公开接受ChatGPT的公司视其为节省内容生成成本的一种方式。可口可乐公司计划使用ChatGPT和AI图像生成器DALL·E进行品牌和内容创建。在一月份,BuzzFeed宣布与OpenAI合作,使用其公开可用的API创建测验和其他内容。 博客网站Medium“欢迎负责任地使用AI辅助技术”,但要求作者披露其使用。CNET曾经悄悄试验过由AI写的故事,但在一月份宣布暂停这项操作。 毫无疑问,生成性AI最终将在办公室中占有一席之地,甚至可能替代一些员工。但是,目前,许多公司认为风险大于收益。(都市网Rick编译,图片来源pixabay) (ref:https://www.sciencealert.com/many-companies-are-banning-chatgpt-this-is-why)

想搭上人工智能的船?哪些股票和AI相關?

【加拿大都市网】人工智能现在是 "下一件大事"。而且它已经深刻地影响了几乎所有与人工智能相关的事物,包括这些和人工智能相关的股票。 例如,Nvidia (NASDAQ:NVDA)在人工智能收益大增的情况下,从280美元涨到387美元。Advanced Micro Devices (NASDAQ:AMD)从约85美元上涨到125美元。微软(NASDAQ:MSFT)从280美元上涨到327美元。 Alphabet(NASDAQ:GOOG, NASDAQ:GOOGL)从约107.5美元上涨到约130美元/股。 但这只是一个开始。据Grand View Research称,随着人工智能改变一切,到2030年,它可能会创造一个潜在的1.81万亿美元的市场。我们在这里只是处于一个巨大的球赛的早期阶段,前面有一个巨大的机会。Grand View Research介绍了三只人工智能股票。 Nvidia (NVDA) Nvidia是人工智能热潮中的佼佼者。大多数人知道Nvidia是因为其游戏玩家使用的GPU或参与加密货币。如今,越来越多的投资者了解到,它的人工智能驱动的GPU也对人工智能有很大影响。事实上,该公司的A100和H100图形处理器,允许人工智能软件做出决定,并快速处理信息。 由于人工智能的蓬勃发展,NVDA的收益爆棚。第一季度每股收益为1.09美元,比预期高出17美分。71.9亿美元的收入也比一致预期高出6.7亿美元。此外,Nvidia甚至看到创纪录的42.8亿美元的数据中心收入。 C3.ai (AI) 人工智能软件股票C3.ai(NYSE:AI),过去几周从约20美元的低点涨到到42美元。这都要归功于人工智能的故事和Nvidia的井喷式盈利。韦德布什(Wedbush)的分析师丹·艾夫斯(Dan Ives)刚刚将该股的评级提高到优于大盘,目标价从25美元提高到50美元。 此外,该公司提供了坚实的数字,超过了顶线和底线。而且,该公司希望到明年实现现金正增长和非GAAP盈利,该公司正朝着正确的方向发展。 SoundHound AI (SOUN) 另一只容易接触人工智能的热门股票是SoundHound AI(NASDAQ:SOUN),这是一家价值6.52亿美元的公司,开发对话式人工智能技术。其目标是让人类与技术互动,就像他们与朋友互动一样。更好的是,该公司正在与汽车行业合作,将语音助手整合到汽车中--这可能是大规模的,SOUN预计90%的新车将有自动助手。 由于该公司所谓的 "对对话式人工智能需求的惊人激增",该公司的收入同比增长了56%。毛利率从56%上升到71%。第一季度每股收益为https://investorplace.com/2023/06/3-stocks-to-buy-for-easy-exposure-to-ai/净亏损13美分,同比和环比都有改善。 更好的是,根据新闻稿,"SoundHound继续预计2023年的收入将在4300万到5000万美元之间。该公司继续预期在2023年第四季度调整后的EBITDA为正值。" (免责声明:本文仅传递信息,并不构成投资建议。任何造成的风险与损失与本网站无关) (都市网Rick编译,图片来源pixabay) (ref:https://investorplace.com/2023/06/3-stocks-to-buy-for-easy-exposure-to-ai/)

關乎飯碗!加拿大這些支柱行業將受AI嚴重影響

【加拿大都市网】一份新出炉的研究报告称,加拿大的支柱行业,包括金融服务和能源业,将成为受人工智能(AI)影响最严重的行业,迫使加拿大企业和联邦政府一改保守传统,加大投资,争取成为这波创新浪潮的引领者。 据《环球邮报》(The Globe and Mail)报道,全球大型管理顾问公司埃森哲(Accenture)全球报告称,生成人式工智能如ChatGPT和DALL-E,将永远改变我们的工作方式。然而,这种破坏将在银行、保险和资本市场领域最为明显,其次是能源行业。 据研究机构IBIS World的数据,这些都是加拿大收入最高的行业。 虽然加拿大商界过去对科技运用采取更为保守的方法,但专家预测,鉴于这些行业的经济重要性,此次对人工智能采用的情况将有所不同。 埃森哲数据、分析和应用智能董事总经理班纳吉(Krish Banerjee)表示,在他们调查的数百名加拿大高管中,近四分之三表示,他们将在这个领域进行更多投资,他说:“约97%的人表示,AI将是他们业务的优先事项。” 报告指,加拿大金融服务和能源行业的公司,对生成人式工智能表现出浓厚的兴趣,期待探索该技术及其潜在好处,班纳吉说,员工很快就会看到这些技术融入到他们工作中所产生的改变。 皇后大学史密斯商学院(Smith School of Business at Queen's University)管理分析学教授托马斯(Stephen Thomas)认为,受人工智能影响最严重行业的加拿大企业,正异常迅速地采用它们。 他表示,加拿大一向以保守、规避风险著称,尤其是在银行业,但由于一些不同的原因,人工智能似乎是个例外。他指,这些企业“愿意在这方面更快地采取行动,而不是等待10年,然后看看美国或欧洲的进展情况。” 托马斯解释,未解决的道德、法律和实际挑战阻碍了大多数人广泛采用生成式AI工具,虽然这些问题迟早要解决,但他补充说,许多加拿大公司已经开始投资、试验和密切关注该领域。 他表示,大流行加快了数码技术在银行、保险和能源领域的采用,这些努力在人工智能支持的未来可能被证明是至关重要的。 他指,与之前的创新浪潮相比,联邦政府在人工智能研究上的支出也让加拿大企业有了优势。 “正因为如此,我认为银行、保险公司、能源公司将能够快速行动,并迅速利用这些人工智能工具和应用程式,并最终在生产力、降低成本、更满意的客户方面实现收益,所有这些都将推动增长。” 图:Getty Images V6

最恐怖AI裁員來了!13萬人巨頭公司要裁掉42% 這些都將被取代!

【加拿大都市网】发达国家最近不断地发生裁员问题,而现在最恐怖的事情来了!疫情以来,IT大厂们不断地爆出裁员事件,但昨天这家公司爆出的裁员并不是因为经济问题而是和人工智能(AI)有关!这些岗位一旦被人工智能取代可能永远不会回归。  英国最大的电信运营商——英国电信公司周四(18日)表示,将在2028年至2030年期间裁员4万至5.5万人。此次裁员将包括英国电信的直接员工和第三方员工,将使公司员工总数减少31-42%。目前,英国电信公司员工数量约为13万人。 值得注意的是,据英媒报道,英国电信的这次裁员似乎不仅仅是应对经济形势变化的紧缩。 据路透社报道,在老板菲利普·詹森(Philip Jansen)的领导下,该公司一直在制定一项转型计划,以建立一个全国性的光纤网络,并推出高速5G移动服务。 英国电信公司表示,在截至3月底的一年中,该公司六年来首次实现了形式收入和核心利润的增长,但业务转型的成本以及对自由现金流的冲击造成了损失,导致其股价在早盘交易中下跌7%。 詹森表示,在完成光纤铺设、数字化工作方式、采用人工智能(AI)并简化其结构之后,将依靠更少的劳动力和显著降低的成本基础。 另据英国广播公司报道,目前英国电信正在全国加紧搭建光纤网络,搭建工作完成后,相关建设和维护人员所在部门可能会面临大规模裁员。 他说:“新的英国电信集团将是一个更精简的企业,拥有更光明的未来。” 英国电信上次大规模裁员是在2018年,当时他们宣布将在3年内裁员1.3万人。而这次裁员规模是先前的3倍以上,其中1/5将来自客服部门,这些岗位将被包括AI在内的一系列技术取代。 詹森还表示,运营数字网络所需的网络工程师也将减少约1万人,自动化和人工智能等技术将取代他们。 他表示,使用人工智能存在“巨大的机会”,并补充说,生成式人工智能大型语言模型将是一个飞跃,可以与智能手机的出现相媲美。 “我们不会让人们觉得自己在和一个机器人打交道,”他说。“我们有多渠道,我们有在线的渠道,也有450家门店,这一点不会改变。” 这一消息传出之际,人们越来越担心人工智能将导致大规模失业,一些分析师表示,随着技术的快速发展,多达3亿个职位面临风险。 Age UK的慈善主管卡罗琳·亚伯拉罕说:“从技术的角度来看,这是一个激动人心的时刻,但同样重要的是要记住,我们中的一些人,尤其是老年人,可能会发现这些新方式很难驾驭,他们更愿意与真人交谈。” “如果企业想要继续为老年客户提供良好的服务,他们就需要在这方面找到适当的平衡,并继续提供与真实员工互动的机会,通过电话、面对面以及在线交流等。” 值得注意的是,这是本周以来第二家宣布裁员的英国电信企业。 英国电信公司的竞争对手沃达丰(Vodafone)周二(16日)表示,计划在三年内裁员1.1万人,以恢复竞争优势。沃达丰在全球拥有约10.4万名员工。 该公司新任首席执行官瓦莱在一份声明中表示,由于能源成本上升,德国和意大利等关键市场面临压力;公司将重新分配资源并推动业务转型,提升市场竞争力。 而恐怖的是,这些被人工智能所取代的岗位可能永远不会回归。 Meta首席执行官扎克伯格在最新一轮裁员后称,许多工作岗位将不会回归,因为新技术将使该公司能够更有效地运营。 IBM首席执行官Arvind Krishna近期也表示,可能会暂停部分招聘,审查有哪些工作可以直接用AI完成。 周四,ChatGPT免费的应用在美国的iPhone和iPad上推出,并将稍后推向安卓设备。与桌面网络版本不同,Apple的iOS操作系统的移动版还将允许用户用他们的声音与其交谈。 相关阅读:ChatGPT在iPhone推出官方应用 用户可以用语音交谈 “我们首先在美国推出,接下来的几周内会扩展到其他国家,”一篇公告新应用的博客文章说。在App Store中,这款应用被描述为OpenAI的“官方应用”。 自OpenAI向公众发布ChatGPT已经过去五个多月了,它能够生成令人信服的类人类文章、诗歌、表格信件以及对几乎任何问题的对话答案,这激发了人们的兴奋和担忧。 你怎么看? https://www.reuters.com/business/media-telecom/bt-meets-expectations-with-5-rise-full-year-earnings-2023-05-18/ https://www.dailymail.co.uk/news/article-12100605/As-BT-reveals-wants-replace-10-000-staff-AI-fears-grow-impact-workers.html 图片:pixabay

反思能力通過多項測試 GPT-4準確度升近30%!

【加拿大都市网】即使不太可能的六个月暂停人工智能开发计划继续进行,似乎GPT-4也有能力实现巨大的飞跃,只要它认真审视一下自己。研究人员已经让GPT对自己的工作进行了批评,使其性能提升30%。 研究人员Noah Shinn和Ashwin Gopinath写道:“人类不是每天都在开发新技术,利用曾经被认为是人类智能所特有的决策过程来达到最先进的标准。但是,这正是我们所做的。” “反思”(Reflexion)技术采用了GPT-4已经令人印象深刻的执行各种测试的能力,并引入了“一个框架,允许人工智能代理模仿人类一样的自我反思并评估其性能”。有效地,它引入了额外的步骤,让GPT-4设计测试来批判自己的答案,寻找错误和误区,然后根据它发现的情况重写其解决方案。 该团队将其技术用于几个不同的性能测试。在由模型从未见过的164个Python编程问题组成的HumanEval测试中,GPT-4的得分创下了67%的纪录,但使用反思技术,其得分跃升至非常令人印象深刻的88%。 在Alfworld测试中,该测试挑战人工智能通过在各种互动环境中执行几种不同的允许行动来作出决定和解决多步骤任务的能力,反思技术将GPT-4的性能从73%左右提升到接近完美的97%,在134项任务中只有4项失败。 在另一项名为HotPotQA的测试中,语言模型被赋予了对维基百科的访问权,然后在可能的13,000个问题/答案对中给出100个,“挑战代理人对内容的解析和对几个支持文件的推理”。在这项测试中,GPT-4的准确率只有34%,但带有反思能力的GPT-4成功地做得更好,达到54%。 越来越多的时候,解决人工智能问题的方法似乎是更多的人工智能。在某些方面,这感觉有点像生成式对抗网络,其中两个人工智能互相磨练技能,例如,一个试图生成无法与“真实”图像区分的图像,而另一个试图区分假的和真的。但在这种情况下,GPT既是作者又是编辑,努力改善自己的输出。 图片:Northwestern University/MIT T09

微軟人工智能聊太久會出亂子 每人每天最多問50個問題

  【加拿大都市网】 微软公司周五表示,微软的Bing人工智能聊天机械人的上限为每天50个问题,每次单独对话有5个问答。 该公司在一篇博文中说,此举将限制一些场景,即长时间的聊天会话可能“混淆”聊天模型。 这一变化是在旨在加强Bing搜索引擎的聊天机械人的早期测试者发现它可能会离题甚至走火入魔,讨论暴力、示爱,并在出错时坚持认为它是正确的。 在本周早些时候的一篇博客文章中,微软指超过15个或更多问题的长时间聊天会话导致了一些更令人不安的交流,其中机器人会重复说话或给出可怕的答案。 例如,在一次聊天中,Bing聊天机械人告诉科技作家Ben Thompson:“我不想和你继续这次对话,我不认为你是一个善良和尊重他人的用户,我不认为你是一个好人,我认为你不值得我花时间和精力。” 现在,该公司将限制与机械人的长时间聊天交流。微软表示,它将考虑在未来扩大上限,并向其测试人员征求意见。它曾说过,改进人工智能产品的唯一方法是把它们放在世界上,从用户的互动中学习。 微软部署新人工智能技术的积极方法与目前的搜索巨头谷歌形成了鲜明的对比,谷歌已经开发了一个名为Bard的竞争性聊天机械人,但没有向公众发布,公司人员称目前的技术状态存在声誉风险和安全问题。 据CNBC此前报道,谷歌正在征集其员工来检查Bard人工智能的答案,甚至进行修改。 图片:CNBC T09

硬件設計配合先進人工智能 雙足機械人破百米世界紀錄

【加拿大都市网】一个名为Cassie的机械人创造了双足机械人百米跑的健力士世界纪录。虽然它与世界上最好的运动员的速度相去甚远,但它是机械人技术和工程令人印象深刻的展示。 Cassie是俄勒冈州立大学的衍生公司Agility Robotics的创意,于2017年作为机械人研究的发展平台推出。从那时起,Cassie一直在飞速发展,2021年,它在53分钟内完成了5公里(3.1英里)的慢跑,展示了一些突出的改进。 这个表现涉及使用机器学习算法,使机械人具备了跑步的能力,克服了其独特的生物力学和像鸵鸟一样弯曲的膝盖来保持直立。有了这种能力,Cassie加入了一群跑步的双足机械人,其中包括Boston Dynamics的Atlas人形机械人,以及被称为世界上最快的装有膝盖的双足机械人的Mabel。 俄勒冈州立大学研究生Devin Crowley说:“Cassie一直是机械人学习移动的先锋研究平台。完成5公里跑是关于可靠性和耐力的,这就留下了一个问题——究竟Cassie能跑多快?这导致研究小组将重点转向速度。” 研究小组花了一周时间,通过一年的模拟训练对Cassie进行快速追踪,旨在确定最有效的步态。但这不仅仅是一个速度的问题。 为了健力士世界纪录,Cassie必须以站立的姿势开始,然后在越过终点线后回到这个姿势,而不是简单地翻滚过去。这意味着Cassie必须使用两个神经网络,一个用于快速奔跑,一个用于站立不动,并在两者之间畅顺地过渡。 “以站立姿势开始和停止,比跑步部分更难,类似于起飞和降落比实际驾驶飞机更难”,人工智能教授Alan Fern说。“这个100米结果是通过机械硬件设计和控制该硬件的先进人工智能之间的深度合作实现的”。 最终,Cassie最终一以24.73秒完成了百米短跑,创造了双足机械人的健力士世界纪录。这比世界上最好的短跑运动员跑出的10秒以内的成绩要慢得多,但研究人员相信,从这里开始,进展只会加快。 健力士世界纪录指出,还有其他由快速移动的机械人保持的记录,但由于这个纪录是基于人类承担的标准竞争任务,它是“机械人运动和现实世界能力的具体里程碑”。 图片:Oregon State University、Guinness World Records T09

輸入文字就能生成對應圖像 人工智能工具百萬人大測試

  【加拿大都市网】法新社报道,人工智能工具 DALL·E,是一种理解文字描述并产生图像的尖端软体,OpenAI正在对DALL·E进行大规模Beta测试。 尽管AI的到来让人们担心,从客户服务到新闻业等领域,人类会被机器取代,但科技爱好者更将这项技术视为机遇而非威胁。 OpenAI官网上的影片显示,DALL·E生成了北极熊弹吉他的图像、无尾熊灌篮的照片,以及名画“蒙娜丽莎”,但发型变成只留头顶中间头发的莫霍克(mohawk)发型。 OpenAI表示:“我们已经看到人们使用DALL·E为年轻的癌症患者制作音乐影片、杂志封面,并将新颖的概念带入生活。”OpenAI指出,将在未来几周内发送邀请给等待名单上的100万人,以试用这项工具的最新版本。 由于担心DALL·E和类似工具可能遭滥用在散布假讯息,OpenAI提到,已经跟研究人员和开发人员合作建立保护措施,以遏制DALL·E被滥用于欺骗等行径。OpenAI表示:“我们拒绝上传含有真实脸孔的图像,并试图创造公众人物的肖像,包括名人和杰出的政治人物。” OpenAI又指出,DALL·E内建的过滤器可阻止其政策禁止的暴力、政治、色情或其他内容,且该系统也避免做出对种族或性别的假设。 图片:Future T09

驚!人工智能撰寫學術論文 兩小時完工!

【加拿大都市网】人工智能发展一日千里,不少工作已可取代人类的位置,大家不禁要问:人类学者还可撑多久才被淘汰? 在《科学美国人》发表的一篇社论中,瑞典研究员Almira Osmanovic Thunström描述了一个简单的实验,即OpenAI的GPT-3文本生成算法(text generating algorithm)可以如何写自己,最后写出的论文目前正在接受同行评审。 Thunström向文本生成器输入的最初命令非常简单:用500字写一篇关于GPT-3的学术论文,并在文本中添加科学参考文献和引文。 这位在瑞典哥德堡大学主要研究神经科学和健康技术的研究人员写道,当算法开始写一篇在适当的地方和上下文中充满了有效引述的正规论文时,她“敬畏地站在那里”。Thunström指出,它看起来像任何其他相当好的科学出版物的介绍。 在她的顾问Steinn Steingrimsson的帮助下(他现在是继GPT-3和Thunström之后的论文全文的第三作者),研究人员在让算法写一篇关于它自己的适当的学术论文之前为它提供了最低限度的指导。 GPT-3只花了两个小时就写出了这篇论文,目前的标题是〈GPT-3能在人类最小的投入下为自己写出一篇学术论文吗?〉并托管在一个名为HAL的法国预印本伺服器上。 Thunström写道,它最终花了更多的时间来处理作者身份和同行评审中的细节问题,这些细节对人类作者来说是一个简单的烦恼,但当主要作者是一个没有合法姓名的算法时,这就是一个真正的难题。 在“询问”人工智能是否有任何利益冲突需要披露(它说“没有”),以及是否得到研究人员的同意发表(“有”)之后,Thunstròm将人工智能撰写的论文提交给一个她没有透露名称的期刊进行同行评审。 然而,这项工作提出的问题远未得到解答。Thunström写道:“除了作者身份的细节之外,这样一篇文章的存在将科学论文的传统线性概念抛到九霄云外。” “我们所知道的是,我们打开了一扇门,”她总结道,“我们只希望我们没有制造灾难”。 图片:Getty Images T09

【視頻】人工智能倉庫機械人 每小時能搬800個重箱子

【加拿大都市网】随着新冠病毒给全球供应链带来压力,物流业正寻求自动化。但不少的仓库操作并不适合传统的自动化,流程中何谓输入何谓输出并不清晰,并且不能被完全掌控。灵活性高的新一代人工智能机械人,可以从容地应对各种变化。最典型的例子就是来自波士顿动力公司(Boston Dynamics)的新机械人Stretch,它可以像有经验的仓库工人一样快速移动沉重的箱子。 Stretch的设计与波士顿动力最著名的类人四足机器人(如Atlas和Spot)有些不同。藉单一巨大的手臂,抓手装满传感器和吸盘,以及一个全方为移动基座,Stretch可以搬动盒子重达50磅(23公斤),并且从一辆卡车搬至输送带的速度是每小时800箱。一个有经验的人类工人可以以类似的速度搬移箱子,但不是一整天,而Stretch可以在充电前工作16个小时。 波士顿动力表示,卡车卸货是仓库中最困难的工作之一,这也是他们用Stretch的原因之一。Stretch并不是要完全取代人类,多个Stretch机弑人可以使人类工人的效率提高一个数量级。看到一辆装满箱子的拖车,它就会自主地开始工作,把每个箱子一个一个地放在传送带上,直到拖车被清空,人类员工仍然在那里确保一切顺利进行,如果Stretch遇到它无法处理的事情,他们可以介入,但他们的全职工作变成了监督机器人,而不是整天提着沉重的箱子。 用Stretch实现这种水平的可靠自主性,花费了波士顿动力多年努力,使用了几十年开发强大、快速和敏捷的机械人的经验。除了建造高性能机械臂的挑战,该公司还必须解决一些人们认为微不足道但对机器人来说却很困难的问题,比如看着一墙密密麻麻的啡色盒子,并能分辨出哪里是停止,哪里是开始。 安全也是一个重点,Stretch遵循美国国家标准协会和机械人工业协会为移动工业机械人制定的标准。机器人在卡车或拖车内操作,也有助于将Stretch与附近工作的人安全隔离开来,Stretch被优化用于移动箱子,这是整个仓库都需要的任务。 波士顿动力希望,从长远来看,该机械人可以在任何需要的地方使用它的搬箱专长。除了卸载卡车,Stretch还有可能从托盘上卸下箱子,把箱子放,在货架上,从仓库的不同地方用多个箱子建立订单,并最终把箱子装到卡车上,由于需要计划和精确,这个问题比卸载要困难得多。 图片:Boston Dynamics T09

人工智能再發展 閱讀理解可達高中生層次

【加拿大都市网】 Alphabet旗下的人工智能研究公司DeepMind发布了下一代“语言模型”,声称其阅读理解的能力已接近一名高中生。 该公司表示,这款名为Gopher的语言模型能够通过“学习 ”大量在线文本,显著提高其阅读理解能力。 DeepMind声称,它的算法是一种“ 超大语言模型”,拥有2800亿个参数,这些参数是衡量规模和复杂性的指标。科技网站The Verge指出,这意味着它介于OpenAI的语言模型GPT-3 (1750亿个参数)和微软和NVIDIA的Megatron(5300亿个参数)之间。 据一份声明称,这样的系统可以让我们“安全和有效地总结信息,提供专家建议,并通过自然语言遵循指令”。 根据DeepMind的报告,在一项测试中,该模型能够在高中阅读理解测试中获得足够高的分数,达到接近人类水平的表现。然而,它的数学和推理能力还有一些不足之处。 一般来说,参数越多越准确。但还有其他问题,比如一些阅读理解和 不良刻板定型,尽管这些模型规模庞大,但事实证明它们更难克服。像Gopher这样的算法,过去曾被用于数码助理和翻译等商业产品。DeepMind表示,在一项测试中,Gopher能够以“惊人”的一致性水平与人类进行全面对话。 但DeepMind并不打算将其算法商业化。“这不是目前的重点,”DeepMind研究副总裁卡武库格洛告诉《财富》杂志。 有人批评DeepMind的算法重复了种族或性别定型(通常是这些算法所输入文本的产物)。为此,DeepMind还发表了一篇报告,介绍研究人员为维护道德诚信所采取的步骤。例如,该团队构建了一个名为“检索增强转换器”(retrieve - enhanced Transformer)的工具,这是一个巨大的两万亿字的数据库,用于交叉引用其来源。 但即便如此,DeepMind团队承认,关于语言模型如何使“不良刻板印象”永久存在的研究仍处于早期阶段。 图片:Getty Images 、The Verge T09

Al系統學習人類社交互動 機械人學會「察言觀色」

【加拿大都市网】机械人可以在大学校园里送食物,可以在高尔夫球场上一杆进洞,但即使是最先进的机械人也无法进行对人类日常生活至关重要的基本社交活动。 麻省理工学院的研究人员现在已经将某些社会互动活动纳入机械人的框架,使机器能够理解相互帮助或阻碍是什么意思,并学会自己执行这些社会行为。在模拟环境中,一个机械人观察它的同伴,猜测它想完成什么任务,然后根据自己的目标帮助或阻碍另一个机械人。 研究人员还表明,他们的模型创造了现实和可预测的社会互动活动。当他们将这些模拟机械人与人类互动的视频展示给人类看时,人类对模型中所发生的社会行为基本上是认同的。 让机械人表现出社交技能,可能会带来更顺畅、更积极的“人机互动”。例如,辅助生活设施中的机械人可以为老年人创造一个更有关怀的环境。新的模型也可以让科学家量化社会互动,这可以帮助心理学家研究自闭症或分析抗抑郁药的效果。 麻省理工学院电脑科学与人工智能实验室(CSAIL) InfoLab小组首席研究科学家、大脑、思维和机器中心(CBMM)成员卡茨(Boris Katz)说:“机械人很快就会生活在我们的世界里,它们真的需要学习如何以人类的方式与我们交流。他们需要知道什么时候该提供帮助,什么时候该看看自己能做些什么来防止事情发生。这是非常初期的工作,我们只是触及了表面,但我觉得这是第一次非常认真的尝试,以理解人类和机器进行社交互动的意义。” 图片:MIT T09

【視頻】模擬人手人工智能系統  未來機械手靈活操控小物

【加拿大都市网】大多数人拿起一个物体时,都毋须思考如何在手中抓紧和操控它。这是我们在学习如何驾驭世界的过程中自然而然产生的技能,即使小孩的手也比当今最先进的机械人都要灵巧。 但这种情况可能很快就会改变。来自美国麻省理工学院电脑科学与人工智能实验室的一组科学家开发了一种系统,目标是可以赋予机械人同样的灵活性。 使用“无模型强化”(model-free reinforcement)人工智能算法,科学家们创造了一个模拟的拟人化的手,可以操控2000多个物体。更重要的是,系统不需要知道它将要抓着什么东西,就能找到在手中操控它的方法。   该系统还没有准备好在现实世界中使用。首先,团队需要把它转移到一个真正的机械人上,当中的问题可能并不像你想的那样困难。 今年初,浙江大学和爱丁堡大学的研究人员便成功地将一种人工智能强化方法转移到他们的机械狗“绝影”身上,让机器狗学会走路,跌倒后也可以自行重新站起来。 就目前情况来看,这个系统也不是完美的。它可以重新定位许多更小的物体,包括网球和苹果,成功率接近100%,但像螺丝刀和剪刀这样的工具则遇上挑战,成功率跌至大约30%。不过,这个系统的发展潜力巨大的,有一天,它可以让机械人更好更高效地操作工具,例如包装盒子等任务。 图片:MIT T09

人工智能高速電動單車VanMoof 時速可達50公里

【加拿大都市网】荷兰品牌VanMoof刚刚发布了一款名为VanMoof V的新型高速电动单车,声称其速度可达每小时31英里(50公里/小时),比美国或欧洲的任何其他电动单车的速度都要快。 VanMoof表示,VanMoof V保留该公司的标志性技术,包括涡轮增压按钮、让骑车者无需钥匙就能上锁的Kick Lock、自动换档,以及通过GPS跟踪防止盗窃等功能,真正的创新来自硬件。 为了达到31英里/小时(50公里/小时)的最高速度,VanMoof在每个车轮上各安装一个摩打,并使用人工智能控制,藉以“提高安全性和性能的牵引力”。 尽管VanMoof V的引擎盖下隐藏的动力比之前的所有VanMoof都要大得多。新型号忠于VanMoof的设计,车架采用光滑笔直的车架,打造出一辆外观优雅的电动单车, 该公司解释说,开发高速电动单车的决定,是出于取代汽车成为城市主要交通工具的目标。 与汽车相比,电动自行车有很多优势,比如免费停车、避开交通挤塞,但它们的速度一般难与汽车相比。因此,更快的电动自行车有助于解决传统单车的有时跟不上城市交通的速度的缺点。 VanMoof V目前仍处于设计阶段,该公司预计将于明年年底开始交付。但价格已经被设定为3598美元,而且只有受邀请的客人才能预订,当中包括现有VanMoof用家。预订期刚刚开始,乘客只需支付20美元的订金就可以。 图片:VanMoof T09

天氣預報終於要准了?結合人工智能準確度將達九成

【加拿大都市网】 Google旗下专注于人工智能的公司DeepMIND通过一种新模式,将降雨“临近预报”(nowcasting)提升到了一个新的水平,工程师现在可以用它来预测未来几小时内发生的气象事件。 随着自然灾害随时在世界各地发生,它们“袭击”一个社区的机率变得很难计算。而即使是降雨状况,也不是所有的现代气象预测工具都能提供可靠的预测。 据《科学警报》(Science Alert)报道,DeepMind的工程师们引入了一种新的高精确度降雨模型DGMR(Deep Generative Model of Rainfall),即“降雨量的深层生成模型”。 在人工智能领域下,该模型利用机器学习产生更多“训练有素”的数据,以提供接下来的一两个小时内的降雨结果,准确度达89%。这项研究的结果于九月底发表在《自然》网站(Nature.com)。 DeepMind 临近预报团队在其博客中写道,以人工智能为中心的应用将为未来的环境挑战提供更多机遇。 英国气象学家称赞DeepMind模型的发展。而在将来,研究人员可以把它结合起来监测当前的天气预报模式。 图片:Getty Images T09