选城市 : 多伦多 | 温哥华
2024年05月29日 星期三 07:58:36
dushi_city_vancouver
dushi_city_tor
dushi_top_nav_01
dushi_top_nav_05
dushi_top_nav_02
dushi_top_nav_20
dushi_top_nav_28
dushi_top_nav_30
dushi_top_nav_31
dushi_top_nav_25

Tag: 人工智能

假照片假视频充斥网上!谷歌研究显示人工智能生成的虚假信息迅速崛起

  【星岛都市网】从虚假战争图像到名人骗局,人工智能技术催生了扭曲现实的网络错误信息。由谷歌研究人员共同撰写的最新分析报告显示,这一问题的增长速度有多快。 这项研究由谷歌、杜克大学和几家事实核查和媒体机构的研究人员共同撰写,上周发表在预印本上。论文介绍了一个新的大规模错误信息数据集,该数据集可以追溯到 1995 年,由 Snopes 等网站进行事实核查。 据研究人员称,这些数据显示,人工智能生成的图片迅速崛起,几乎与更传统的操纵形式一样流行。 研究人员写道:“直到去年年初,人工智能生成的图片在整个内容篡改中只占很小的比例。去年,包括 OpenAI、微软和谷歌在内的科技界主要公司都发布了新的人工智能图像生成工具。现在,人工智能生成的错误信息几乎与文本和一般内容篡改一样常见”。 研究人员指出,人工智能图像事实检查的兴起与人工智能炒作的浪潮不谋而合,这可能导致了网站对该技术的关注。数据集显示,人工智能事实核查在最近几个月有所放缓,而传统的文字和图片处理则有所增加。 这项研究还考察了其他形式的媒体,发现视频骗局目前约占所有事实核查声明(包括媒体)的 60%。 机器学习平台Hugging Face的著名人工智能伦理研究员萨沙-卢奇奥尼(Sasha Luccioni)说,这并不意味着人工智能生成的错误信息已经放缓。 卢奇奥尼表示:“就我个人而言,我觉得这是因为人工智能误导信息的例子太多了,以至于难以追踪!我自己也经常看到它们,甚至在社交媒体之外,比如在广告中”。 人工智能已被用于生成假的真人图片,效果令人担忧。例如,今年早些时候,泰勒-斯威夫特(Taylor Swift)的虚假裸体图像就流传开来。404 媒体报道称,用于生成图片的工具是微软的人工智能生成软件,该软件是从 ChatGPT 制造商 OpenAI 那里获得的授权,这促使这家科技巨头关闭了一个允许生成图片的漏洞。 这项技术也曾以更无害的方式愚弄过人们。最近,凯蒂-佩里(Katy Perry)出席纽约 Met Gala 的假照片--实际上她从未出席过--愚弄了社交媒体上的观察者,甚至愚弄了这位明星自己的父母。 人工智能的崛起让社交媒体公司和谷歌自己都很头疼。过去,由于搜索引擎优化驱动的内容农场,谷歌图片搜索结果中经常出现虚假名人图片。使用人工智能操纵搜索结果违反了谷歌的政策。 谷歌发言人没有立即发表评论。此前,一位发言人告诉科技新闻媒体 Motherboard,“当我们发现低质量内容排名靠前的情况时,我们会建立可扩展的解决方案,不仅针对一次搜索,而且针对一系列查询来改善搜索结果”。 为了应对人工智能造假问题,谷歌推出了数字水印等举措,用人眼看不见的标记将人工智能生成的图像标注为假图像。该公司还与微软、英特尔和 Adobe 一起,正在探索让创作者选择在人工智能生成的图像上添加可见水印。 卢奇奥尼说:“我认为,如果大型科技公司合作制定人工智能水印标准,这对整个领域的发展肯定会有帮助”。(都市网Rick编译,图片来源pixabay) (ref:https://www.cbc.ca/news/science/artificial-intelligence-misinformation-google-1.7217275)

OpenAI主要领导辞职 人工智能会不会陷入安全困境?

  【星岛都市网】扬-莱克(Jan Leike)和伊利亚-苏茨基弗(Ilya Sutskever)离开 OpenAI 的原因是他们负责监督“超级智能”人工智能系统的团队在获取资源方面遇到了问题。尽管该团队已经解散,但他们的任务将由不同部门的研究人员继续执行,这引发了人们对 OpenAI 未来人工智能安全性的担忧。 在 OpenAI,负责开发和监督“超级智能”人工智能系统(被称为 Superalignment)的团队在获取承诺的资源方面遇到了重大问题。尽管他们本应获得公司五分之一的计算资源,但他们的请求经常遭到拒绝,从而阻碍了项目的实施。这些问题和其他问题导致几名团队成员于本周辞职。其中一位离职者是该团队的共同负责人、前 DeepMind 研究员扬-莱克(Jan Leike)。他透露,他离开公司的原因是对 OpenAI 的优先事项存在分歧,尤其是他认为在引入后续人工智能模型方面准备不足。 关键人物的离职 除了莱克,作为前董事会成员的联合创始人伊利亚-苏茨基弗(Ilya Sutskever)也因与首席执行官萨姆-奥特曼(Sam Altman)的矛盾离开了 OpenAI。董事会成员对奥特曼表示不满,但奥特曼最终还是回到了自己的岗位。针对这些事件,奥特曼在 X 平台上写道,公司未来仍有很多工作要做,但这些工作将全力推进。阿尔特曼的话得到了人工智能联合创始人格雷格-布罗克曼(Greg Brockman)的支持,他强调必须更加重视安全和流程效率。 虽然 Superalignment 团队实际上已不复存在,但来自公司各部门的一组研究人员将继续开展活动。这不禁让人担心,OpenAI 是否会继续同样关注人工智能开发中的安全问题。 人员变动是否预示着工作重点的转移? 据 TechCrunch...

科学家称人工智能可能在200年内杀死我们

  【星岛都市网】一位英国科学家在一篇富有启发性的新论文中提出,所谓的“人工智能”(AI)是否是我们从未在宇宙中发现其他智慧生物的原因之一?这一想法在费米悖论基础上形成:在一个无限的宇宙中,怎么可能没有其他文明向我们发送无线电信号呢?难道说,一旦文明发展出人工智能,它们中的大多数就会很快被遗忘?这种大规模事件被称为“大滤波器”,而人工智能是人们对其最热门的猜测对象之一。科技文明不可避免地发展人工智能,会不会造成我们从宇宙中听到的不可能发生的大寂静? 迈克尔-加勒特(Michael Garrett)是曼彻斯特大学的射电天文学家,也是朱德雷尔银行天体物理中心(Jodrell Bank Centre for Astrophysics)的主任,广泛参与地外智能搜寻(SETI)的工作。从根本上说,虽然他的研究兴趣不拘一格,但他是电视剧或电影中那些通过聆听宇宙来寻找其他文明迹象的人的现实版。在这篇经过同行评审并发表在《国际宇航科学院》杂志上的论文中,他将人工超级智能理论与射电天文学的具体观测结果进行了比较。 加勒特在论文中解释说,科学家们越是听不到任何其他智慧生命的迹象,就越是感到不安。他写道:“当把这种'大沉默'与其他天文学发现并列在一起时,就会产生一种悖论,因为其他天文学发现暗示宇宙对智慧生命的出现是很友好的。‘大过滤器’的概念经常被使用--这是一个普遍存在的障碍和不可逾越的挑战,阻碍了智慧生命的广泛出现”。 潜在的“大过滤器”数不胜数,从气候灭绝到有害的全球大流行病。任何事件都可能阻止全球文明走向多行星化。对于更多从意识形态上追随并相信大过滤器理论的人来说,人类在火星或月球上定居是降低风险的一种方式。这种想法认为,我们在地球上待得越久,大过滤器事件就越有可能消灭我们。 如今,人工智能的能力还无法接近人类智能。但是,加勒特写道,它正在做人们以前不相信计算机能做的工作。如果这一轨迹导致了所谓的通用人工智能(GAI)--这一关键区别意味着一种算法能够以真正人类的方式进行推理和综合想法,并结合令人难以置信的计算能力--我们就真的有麻烦了。在这篇论文中,加勒特通过一连串的假设,得出了一个可能的结论。一个文明需要多长时间才能被其自身不受监管的通用人工智能所毁灭? 在加勒特的设想中,只需要100-200年。他解释说,与太空旅行和定居这种杂乱无章的多领域工作相比,人工智能的编码和开发是一项涉及数据和处理能力并由数据和处理能力加速的单一项目。今天,我们看到了这种分裂,研究人员大量涌入计算领域,而生命科学领域却人才匮乏。推特上每天都有大言不惭的亿万富翁谈论定居火星有多么伟大和重要,但我们仍然不知道人类如何才能在旅途中生存下来而不被宇宙辐射摧毁。 关于这项研究,有一些重要的注意事项,或者说需要牢记的事情。加勒特通过一系列具体的假设情景,使用了大量的假设条件。他假设银河系中存在生命,人工智能和通用人工智能是这些文明的“自然发展”。他使用了已经假设过的德雷克方程,这是一种量化其他行星文明可能数量的方法,其中有几个变量我们还没有具体的概念。 不过,混合假设论证得出了一个强有力的结论:需要对人工智能进行严格和持续的监管。加勒特指出,地球上的国家已经在进行一场生产力竞赛,如果他们为了进行更多监管而犹豫不决,就会害怕错失良机。一些误入歧途的未来学家还有一个奇怪的想法,他们认为只要更快地开发出道德上良好的人工智能,就可以颠覆全球人工智能,从而对其进行更多的控制--这种说法毫无意义。 在加勒特的模型中,这些文明的人工智能时代只有几百年就会从地图上消失。在遥远的距离和漫长的宇宙时间中,这样微小的时间范围几乎毫无意义。他说,这与SETI目前0%的成功率相吻合。 加勒特解释说:“如果没有切实可行的监管措施,我们完全有理由相信,人工智能不仅会对我们的技术文明,而且会对所有技术文明的未来进程构成重大威胁”。(都市网Rick编译,图片来源pixabay) (ref:https://www.popularmechanics.com/science/a60510513/ai-could-kill-us-in-200-years/)

杜鲁多宣布将投资24亿元用于人工智能

  【星岛都市网】加拿大总理杜鲁多(Justin Trudeau)周日宣布,联邦政府将投资24亿加元加速加拿大人工智能(AI)行业的发展。 这笔投资将用于采取一系列措施,以促进人工智能和科技行业的就业增长,并提高企业的生产力。 杜鲁多周日在一份新闻稿中说:“这项宣布是对我们的未来、对工人的未来、对确保每个行业和每一代人都拥有在未来经济中取得成功和繁荣的工具的一项重大投资”。 其中大部分资金(20亿元)将用于提高计算机和技术基础设施的使用。新闻稿称,另有2亿元将投资于人工智能初创企业,以加速该技术在医疗保健、农业和制造业等“关键领域”的应用。 其他资金将用于帮助中小型企业采用人工智能,另外还将投入5000万元帮助培训那些工作可能会被人工智能技术颠覆的工人。 杜鲁多周日在蒙特利尔举行的新闻发布会上说:“人工智能将帮助我们建设一个更公平的未来,创造更多的就业机会,实现更多的增长,甚至拥有更多的家园。这正是我们所关注的。公平对待每一代人。” 在宣布这一消息之前,莱格尔公司(Leger)最近的一项民意调查发现,尽管存在“根深蒂固的恐惧”,但人工智能的使用率在加拿大正在上升。 该民调于今年 2 月发布,发现 30% 的加拿大人使用人工智能工具,比一年前增长了约 25%。 杜鲁多周日指出,创新和技术是加拿大薪酬最高的一些行业。随着全球利用人工智能技术的竞争日益激烈,招聘拥有人工智能技能的加拿大人的需求在过去一年也急剧上升。 新投资是联邦政府 2024 年预算的一部分,将由财政部长方慧兰(Chrystia Freeland)于 4 月 16 日提交。周日公布的承诺是最近几周发布的多项预算前公告中最新的一项。(都市网Rick编译,图片来源星岛资料图) (ref:https://globalnews.ca/news/10408277/trudeau-artificial-intelligence-tech-budget-investments/)

一个技术窍门:如何识别人工智能生成的假图像

  【星岛都市网】人工智能造假正迅速成为我们在网上面临的最大问题之一。由于人工智能生成工具的兴起和滥用,欺骗性图片、视频和音频层出不穷。 从泰勒·斯威夫特(Taylor Swift)到唐纳德·特朗普(Donald Trump),几乎每天都有人工智能深度伪造的图片出现,人们越来越难辨别真假。像 DALL-E、Midjourney 和 OpenAI 的 Sora 这样的视频和图像生成器,让没有任何技术技能的人也能轻松创建深度伪造图像--只需输入一个请求,系统就会自动生成。 这些虚假图像看似无害。但它们可能被用来实施诈骗和身份盗窃,或进行宣传和操纵选举。 以下是如何避免上当受骗的方法: 如何识别深度伪造图片 在深度伪造的早期,技术远非完美,经常会留下被操纵的蛛丝马迹。一些图片有明显的错误,比如有六个手指的手或镜片形状不同的眼镜。 但随着人工智能的进步,这变得难上加难。咨询公司 Latent Space Advisory 创始人、生成式人工智能领域的著名专家亨利·阿吉德(Henry Ajder)说,一些广为流传的建议--比如在深度伪造视频中寻找人物不自然的眨眼模式--已经不再适用。 不过,他说,有些东西还是要注意的。 很多人工智能深度伪造照片,尤其是人物照片,都有一种电子光泽,“一种美学上的平滑效果”,让皮肤“看起来光洁无比”,阿吉德说。 不过,他警告说,创造性的提示有时可以消除这种现象和许多其他人工智能操纵的迹象。 检查阴影和光线的一致性。通常情况下,主体对焦清晰,看起来栩栩如生,但背景中的元素可能并不那么逼真或光鲜。 看脸部 换脸是最常见的深度伪造方法之一。专家建议仔细观察面部边缘。面部肤色是否与头部或身体的其他部分相匹配?面部边缘是清晰还是模糊? 如果怀疑某人说话的视频被篡改,请查看其嘴部。他们的嘴唇动作是否与音频完全吻合? 阿吉德建议查看牙齿。它们是清晰,还是模糊不清,与现实生活中的样子不一致? 网络安全公司诺顿表示,算法可能还不够复杂,无法生成单个牙齿,因此单个牙齿轮廓不清晰可能是一个线索。 从大处着眼 有时,背景很重要。花点时间考虑一下你所看到的是否可信。 Poynter新闻网站建议,如果你看到公众人物做了一些看起来“夸张、不现实或不符合人物性格”的事情,这可能是深度伪造。 例如,教皇真的会像一张臭名昭著的假照片所表现的那样穿着一件奢华的夹克吗?如果是这样,难道就不会有其他合法来源发布的照片或视频吗? 利用人工智能发现假货 另一种方法是利用人工智能对抗人工智能。 微软开发了一种验证工具,可以分析照片或视频,对其是否被篡改给出置信度评分。芯片制造商英特尔(Intel)的 FakeCatcher使用算法分析图像的像素,以确定图像的真假。 网上有一些工具承诺,如果你上传文件或粘贴可疑材料的链接,它们就能识别出赝品。但有些工具,如微软的验证器,只提供给选定的合作伙伴,不对外开放。这是因为研究人员不希望向坏人通风报信,让他们在深度伪造军备竞赛中占据更大优势。 阿吉德说,检测工具的开放也会给人们留下这样的印象:它们是神一样的技术,可以为我们鉴定真假,而我们需要意识到它们的局限性。 发现假货的障碍 尽管如此,人工智能仍在以迅雷不及掩耳之势向前发展,人工智能模型正在互联网数据上接受训练,以产生质量越来越高、瑕疵越来越少的内容。 这意味着即使一年后,也不能保证这些建议仍然有效。 专家们说,让普通人承担成为数字神探的重任甚至可能是危险的,因为这可能会给他们带来虚假的自信,因为即使是训练有素的眼睛也越来越难以识别深度伪造的内容。(加通社,都市网Rick编译,图片来源网络)

人工智能可能会对人类构成灭绝级威胁 加拿大准备好了吗?

【星岛都市网】一家领先的人工智能安全公司本周警告说,各国(包括加拿大)已经没有时间来设计和实施有关开发和部署先进人工智能系统的全面保障措施了。 人工智能研究人员在美国国务院委托撰写的一份题为《深度防御》的报告中写道,在最坏的情况下,追求权力的超级人工智能系统可能会逃脱其创造者的控制,并对人类构成“灭绝级”的威胁。 美国国务院坚称,作者在报告中表达的观点并不反映美国政府的观点。 但该报告所传达的信息让加拿大政府迄今为止在人工智能安全和监管方面所采取的行动再次成为人们关注的焦点--一位保守党议员警告说,政府提出的《人工智能和数据法》已经过时了。 人工智能与每个人 总部位于美国的格拉德斯通人工智能公司(Gladstone AI)编写了这份报告,该公司倡导负责任地开发安全的人工智能。其警告主要分为两类。 第一类涉及人工智能开发者失去对人工通用智能(AGI)系统控制的风险。作者将AGI定义为在所有经济和战略相关领域都能超越人类的人工智能系统。 虽然迄今为止还不存在AGI系统,但许多人工智能研究人员认为它们离我们并不遥远。 作者写道:“有证据表明,当高级人工智能接近类似AGI的人类和超人综合能力水平时,它可能会变得难以控制。具体来说,在缺乏应对措施的情况下,能力超强的人工智能系统可能会做出所谓的权力寻租行为。” 作者补充说,这些行为可能包括防止人工智能本身被关闭或其目标被修改的策略。 作者警告说,在最坏的情况下,这种失控“可能会对人类构成灭绝级的威胁”。 报告作者之一、格拉德斯通人工智能公司首席执行官杰里米·哈里斯(Jeremie Harris)周四在接受加拿大广播公司(CBC)节目采访时说:“这些系统有可能开始变得具有危险的创造力。它们能够发明出危险的创造性策略,在实现编程目标的同时,产生非常有害的副作用。这就是我们所关注的失控风险”。 报告中提到的第二类灾难性风险是先进的人工智能系统可能被用作武器。 哈里斯表示,其中一个例子就是网络风险。例如,你现在可以去让这些人工智能系统为你做一个应用程序,这是一件了不起的事情。它基本上实现了软件工程的自动化。这对整个行业是件大好事。 “但想象一下,同样的系统......你要求它进行大规模分布式拒绝服务攻击或其他网络攻击。这些功能强大的优化应用程序的准入门槛降低了,而使用这些系统的恶意行为者的破坏足迹也随着系统功能的增强而迅速扩大”。 哈里斯警告说,滥用先进的人工智能系统可能会扩展到大规模杀伤性武器领域,包括生物和化学武器。 报告提出了一系列各国(首先是美国)应采取的紧急行动,以防范这些灾难性风险,包括出口管制、法规和负责任的人工智能发展法律。 加拿大的立法是否已经失效? 加拿大目前没有专门针对人工智能的监管框架。 政府于2021年11月推出了《人工智能与数据法》(AIDA),作为C-27法案的一部分。该法案旨在为加拿大负责任地设计、开发和部署人工智能系统奠定基础。 该法案已在众议院通过二读,目前正由工业和技术委员会进行研究。 联邦政府还在2023年推出了《负责任地开发和管理高级生成式人工智能系统的自愿行为守则》,该守则的目的是在AIDA生效之前暂时为加拿大公司提供通用标准。 在周五的新闻发布会上,工业部长香槟(François-Philippe Champagne)被问及,鉴于格拉德斯通人工智能报告中警告的严重性,他为什么仍然相信政府提出的人工智能法案有能力监管这项快速发展的技术。 “每个人都在称赞C-27,”香槟说。“我有机会与七国集团的同事们交谈,......他们认为加拿大走在了人工智能的前沿,你知道,建立信任和负责任的人工智能”。 "每个人都在称赞 C-27,"香槟说。"我有机会与七国集团的同事们交谈,......他们认为加拿大在人工智能领域走在了前列,你知道,建立信任和负责任的人工智能。" 保守党议员米歇尔·伦佩尔·加纳(Michelle Rempel Garner)在接受CBC News采访时表示,香槟对C-27法案的描述是无稽之谈。 伦佩尔·加纳说:“专家们在委员会作证时并不是这么说的,这也不是现实。” 伦佩尔·加纳是议会新兴技术核心小组的联合主席,并一直在撰文讨论政府在人工智能方面加快行动的必要性。 “C-27已经过时了”。 AIDA是在世界领先的人工智能公司OpenAI于2022年推出ChatGPT之前推出的。该人工智能聊天机器人代表了人工智能技术的惊人进化。 伦佩尔·加纳说:“事实上,政府并没有实质性地解决他们在技术发生根本性变化之前就提出这项法案的问题......这有点像在印刷机广泛普及之后还试图监管抄写员。政府可能需要回到绘图板上去”。 2023年12月,格拉德斯通人工智能公司的哈里斯告诉下议院工业和技术委员会,AIDA需要修正。 “当AIDA生效时,将是2026年。前沿人工智能系统的规模将是我们今天所看到的数百到数千倍,”哈里斯告诉议员们。“AIDA的设计需要考虑到这种风险水平。” 哈里斯告诉委员会,AIDA需要明确禁止引入极端风险的系统,解决危险的强大人工智能模型的开源开发问题,并确保人工智能开发者承担确保其系统安全开发的责任--除其他外,防止系统被国家和非国家行为者窃取。 哈里斯对议员们说:“AIDA相比现状有所改进,但还需要进行重大修订,以应对不远的将来人工智能能力可能带来的全面挑战”。(都市网Rick编译,图片来源pixabay) (ref:https://www.cbc.ca/news/politics/advanced-artificial-intelligence-risk-extinction-humans-1.7144372)

谷歌“双子座”事件显示了人工智能竞争中的风险

  【星岛都市网】谷歌的人工智能“双子座”(Gemini)又一次出丑了。 该公司这段时间一直在为其人工智能图像生成功能引发的激烈反弹进行辩护。该功能生成了与历史不符的有色人种图像,比如将维京人变成黑人,或者画出黑人教皇。后来公司暂停了该功能,高级管理人员也为此道歉。 该产品让谷歌陷入了被某些人称为“觉醒”文化战争的中心。批评者将这一有争议的模式视为谷歌产品受左倾员工影响过大的证据。 谷歌高层的道歉努力似乎并没有平息批评者的情绪,他们中的许多人质疑谷歌产品是如何在存在如此明显问题的情况下推出的。 国王商学院(King's Business School)的讲师安德烈斯·格维茨(Andrés Gvirtz)告诉《商业内幕》(Business Insider),谷歌在与其他大科技公司不断升级的人工智能竞赛中的地位可能引发了内部的紧迫感。 他说:“我们看到了一种普遍趋势,即公司正急于纳入和构建人工智能解决方案,这种将产品推向市场的压力可能会导致偷工减料”。 格维茨表示,与我交谈的工程师们都很清楚,这种将人工智能集成到现有软件堆栈中的淘金热充满了新的法律和商业风险,但他们在决定何时推出新功能方面的权力却很有限。 仓促上阵的工程师 谷歌联合创始人之一谢尔盖·布林(Sergey Brin)周六回应了这些投诉,声称模型的左倾倾向并非公司本意,公司高管正在努力解决这些问题。 首席执行官桑达尔·皮查伊(Sundar Pichai)也为此事道歉,并在给员工的备忘录中承诺进行结构性改革,尽管有传言称有些人宁愿他下台。 布林表示,这些奇怪的图片很可能是由于缺乏全面的测试造成的,The Verge的亚历克斯·希思(Alex Heath)则将此归咎于员工急于交付产品。 希思指出,“双子座”应用程序中使用的照片生成功能是由较早的文本到图像模型驱动的,“双子座”中加入该功能是为了更快地推出该功能,这就是谷歌仓促行事的一个例子。 The Verge还报道称,建立底层模型的研究团队与将其应用到产品中的团队之间缺乏协调。 谷歌的“双子座时代”就是为了应对GPT-4 皮查伊在去年年底声称,谷歌正在进入“双子座时代”。 该模型被广泛认为是该公司对OpenAI GPT-4的回应,后者得到了微软的大力支持,已经为该公司的许多人工智能产品提供了动力。 谷歌一直不甘落后于老对手,紧随微软推出了类似的产品,包括人工智能驱动的搜索和工作场所助手。 “双子座”的图像生成失误并不是谷歌第一次因其人工智能而公开出丑。 去年,谷歌的人工智能聊天机器人“巴德”(Bard)在首次现场演示时就出了差错。这一失误无意中凸显了用聊天机器人取代搜索引擎的危险,导致谷歌母公司Alphabet股价暴跌。 微软和OpenAI的技术也出现过类似失误。在巴德失误几天后,微软的人工智能必应开始向用户提供“不正常的回复”,包括爱的表白和愤怒的争论。 但谷歌一直努力将自己定位为负责任的人工智能守护者。在去年《金融时报》的一篇专栏文章中,皮查伊说,“负责任地打造人工智能的竞赛”甚至比交付用户产品的需求更重要。 格维茨说,对谷歌来说,“双子座”争议的主要问题在于其品牌认知。 格维茨表示,大多数人之前都认为谷歌是“中立”的,从未真正问过自己,他们的搜索引擎提供商代表着什么。 牛津互联网研究所教授桑德拉·瓦赫特(Sandra Wachter)表示,技术应该用来解决问题,而不仅仅是击败他人进入市场的一种方式。 瓦赫特说,公司并非存在于真空中,它们的行为会对个人和社会产生影响。 她补充说:”这个世界不是一个沙盒,也不是一个大型的现场实验,因此我们必须慎重对待向市场开放的产品以及开放的时间“。 谷歌公司的代表没有立即回应《商业周刊》的置评请求。(都市网Rick编译,图片来源星岛资料图) (ref:https://www.businessinsider.com/google-gemini-firestorm-big-tech-ai-arms-race-2024-3)

人工智能在加拿大拯救生命 心脏病患者的福音

  加拿大心力衰竭的发病率急剧上升,专家表示,现在比以往任何时候都更需要准确的预后工具。然而,在这一充满挑战的环境中,人工智能(AI)领域却出现了希望。 多伦多彼得蒙克心脏中心(Peter Munk Cardiac Centre)的研究人员推出了SEATTLE HF,这是一种人工智能系统,与医生相比,它能准确预测患者的心脏健康状况。 彼得蒙克心脏中心的心脏病专家卡罗琳娜·阿尔巴(Carolina Alba)博士解释说:“我们认识到,我们一次能整合的信息有限”。 “当然,(医生)训练有素,我们有丰富的经验为成千上万的特定病症患者看病,但我们知道我们的大脑是有限的。现在,我们可以依靠使用预测模型”。 阿尔巴告诉《环球新闻》,人工智能工具的目标不是取代医生,而只是协助他们为病人做出更好的判断,无论是建议心脏手术、调整药物剂量还是探索替代疗法。 “现在,我们依靠家庭医生的判断或我们的判断来做出这些决定。我们知道,我们的判断有些偏差。因此,通过这些模型,我认为我们可以更好地分配资源,并确保我们可以帮助每一个从这类护理中获益最多的人,”她说。 根据心脏与中风基金会(Heart and Stroke Foundation)的数据,约有 75 万加拿大人患有心力衰竭,这是一种由于心脏功能不全或其结构出现问题而导致的慢性疾病。 每年有 10 万人被诊断出患有这种不治之症。不仅在加拿大,在全世界,这个问题也日益严重。 虽然心力衰竭无法治愈,但早期诊断和正确的治疗方案可以延长患者的预期寿命并提高生活质量。 为了测试使用人工智能治疗心脏病的效果,阿尔巴和一组研究人员收集了加拿大11家心脏病诊所的数据,并对患者进行了为期一年的监测。然后,他们将家庭医生和心脏病专家的预测与计算机模型生成的预测进行了比较。 比较结果表明,人工智能比医生更精确,而医生往往会高估病人的风险。 “一般来说,医生倾向于高估风险。我认为这是人类的天性。我们总是做最坏的打算,当不好的事情即将发生时,我们总是试图将风险降到最低,或者试图将最好的结果最大化,”阿尔巴说。 “使用这些没有附加情感体验的数学模型,我们可以利用这个模型来帮助我们校准风险评估。这样,我们就能更好地与病人讨论现实中可能发生的情况,而不仅仅是基于我们的经验、情绪和判断”。 通过向人工智能工具输入患者特征、血液检查结果、病史和是否存在合并症,医生可以获得预测结果,例如患者一年内的死亡风险。有了这些信息,医生就能在病人护理方面做出更明智的决定。 例如,医生可以评估病人是否需要进行移植、安装机械心脏或药物治疗。 她说:“如果我们的病人风险较低,它还可以建议病人不要使用大量药物,因为这些药物可能带来的益处很少,而且可能会让病人面临不必要的风险或成本”。 使用人工智能工具的另一个好处是有助于减轻已经捉襟见肘的医疗系统的压力。 例如,加拿大心脏与中风基金会的帕特里斯·林赛(Patrice Lindsay)强调了这项技术如何帮助管理移植等待者名单。 她告诉《环球新闻》:“结合我们自己的观察和人工智能,我们可以预测人们的健康状况何时开始加速下降,并帮助他们获得更紧急的护理”。 “因为对于心脏移植来说,现实情况是有些人无法完成手术,他们会在等待期间去世。因此,如果我们能鼓励更早地做出一些这样的改变,我们就能调整等待名单和等待时间,帮助其中一些人更快地得到治疗。” 她强调,人工智能不仅能“拯救生命”,还能让病人活得更长、更健康。 阿尔巴对此深有同感,她强调说,加拿大的许多心脏诊所都处于饱和状态,导致众多患有心力衰竭的加拿大人排队等待重要的治疗。 然而,利用人工智能工具可以确保专科门诊满足高风险患者的需求,而低风险病例则由家庭医生管理--减轻了系统的负担,她说。 尽管人工智能工具已被证明在协助医生更好地为病人服务方面非常有用,但彼得蒙克心脏中心的人工智能科学家瓦利加·苏巴斯里(Vallijah Subasri)强调了进一步整合到医院的必要性。 她说:“医院需要在基础设施层面做出很多改变,才能真正赶上一些科技公司和其他行业的步伐。但我认为,现在终于有了对话,人工智能的价值也真正被看到了。” 她说,彼得蒙克心脏中心的SEATTLE HF等工具的下一步是尝试将其投入诊所,培训家庭医生,并真正以安全和负责任的方式使用。 阿尔巴解释说,虽然模型是准确的,但它们仍未经过临床实践的检验。 她说:“这就像我们或多或少知道,我们刚刚在实验室里发现了一种有效的疗法,可以帮助病人治愈疾病。现在我们正处于这样一个阶段,我们必须测试这些预测模型的使用情况,以确保我们能够帮助病人”。 (ref:https://globalnews.ca/news/10293764/ai-tool-heart-failure-prediction-canada/)

Meta宣布将识别并标记人工智能生成的图像

【星岛都市网】Meta今(6日)宣布,将识别Facebook和Instagram图像是否为人工智能生成的图像,如果图像由人工智能生成,将会贴上“用人工智能想像”的标签,直言旨在区分真实与虚假。Meta表示正与行业合作伙伴合作制定技术标准,更容易识别影片及图像是否由人工智能生成。 现时制作和传播人工智能生成的图像或会影响当事人及公众,Cornell University资讯科学助理教授Gili Vidan表示,表明Meta正在认真处理上线虚假内容,她提到标记大部分以人工智能生成的“非常有效”,但无法捕获所有内容。 Meta全球事务总裁Nick Clegg没有公布标签何时会出现,但表示将在未来几个月内,以不同的语言出现,“随着人类内容和合成内容之间的区别变得模糊,人们想知道边界在哪里”。 现时很许多科技产业合作,包括Adob​e领导的“内容真实性计划”,一直努力制定标准,推动人工智能生成内容的数位浮水印和标签也是美国总统拜登10月签署的行政命令的一部分。 Clegg表示Meta将致力标记“来自 Google、OpenAI、微软、Adobe、Midjourney 和 Shutterstock的图像”,Google去年表示,人工智能标签将登陆YouTube及其他平台。 YouTube 执行长Neal Mohan重申,在接下来的几个月中,将推出标签,告知观众他们所看到的内容是否为合成。 (图:美联社)T11

“AI教父”黄仁勋到访加拿大 与联邦签署意向书

【星岛都市网】联邦工业部长商鹏飞(Francois-Philippe Champagne)表示,加拿大已与人工智能(AI)晶片巨头辉达(Nvidia)签署了一份意向书,以提高运算能力。 加通社报道,商鹏飞在X(以前称为Twitter)上发布的一篇文章中宣布,该意向书是与这家总部位于加州的巨头签署的,该公司最近见证了人工智能创新的竞赛,使其估值突破了1.5兆元大关。 辉达创办人“AI教父”黄仁勋(Jensen Huang)在周四(1日)访问多伦多期间,双方都没有透露有关内容。 黄在周四晚间接受加通社采访时表示:“商鹏飞部长希望得到我的支持,确保加拿大能够获得领先的技术,以便在必要的资金支持下,建设自己的基础设施,我对此非常热心。” “自从深度学习开始以来,我们一直是加拿大的合作伙伴……因此,这是我们投资的一个非常重要的地区,一个我们投资的非常重要的国家。” 加拿大并不是唯一一个优先考虑人工智能基础设施的国家。黄说,日本、韩国、马来西亚、新加坡、英国、法国和意大利都关注这个主题。 然而,加拿大面临的机会是独一无二的。 黄认为加拿大是现代人工智能的发源地,因为这项技术的两位“教父”班哲路(Yoshua Bengio)和辛顿(Geoffrey Hinton)很早就在加拿大完成了人工智能研究。两人最终赢得了通常被称为“电脑界的诺贝尔奖”的图灵奖(Turing Award)。 班哲路和辛顿此后建立了人工智能研究中心:多伦多的Vector Institute和满地可的Mila。 黄仁勋指,加拿大在满地可和多伦多之间拥有深入且规模相当大的人工智能研究。“不要浪费这一点,并确保这些研究人员拥有他们所需的仪器和资金,以继续推进他们在很多方面的科学发明。” 黄仁勋周四穿着他标志性的黑皮褛,在多伦多四季酒店(Four Seasons Hotel)一边吃着寿司和滑块,一边接受加通社记者的采访。 早些时候,他与自动驾驶公司Waabi的 Raquel Urtasun、人工智能宠儿Cohere的Aidan Gomez、Vector Institute的Alán Aspuru-Guzik和药物发现公司Deep Genomics的Brendan Frey一起在受邀人群面前同台。 “为了加速加拿大的生态系统,我们必须做很多不同的事情,”黄告诉观众。 “部分需要政府的鼓励和支持,部分是为了激励年轻研究人员继续在加拿大进行研究,部分是为了在他们毕业后为他们创造机会。” 他强调加拿大并不缺乏研究或人才。 黄仁勋1963年生于台湾台南市,父亲是化学工程师,母亲是小学老师。童年时,一家人由于父亲工作原因曾暂居泰国。1973年,泰国社会动荡,他再随父母移民美国。 他于1993年在美创立图形晶片公司辉达,并担任首席执行官兼总裁至今。 图:加通社 V6

华裔律师用ChatGPT准备法庭材料 提交虚假案例遭批!

【星岛都市网】加拿大首例涉及人工智能创造假法律案件的情况发生在卑诗省法院中,当事人是一名华裔律师。 《Global News》报道,律师麦克莱恩夫妇 (Lorne and Fraser MacLean) 在卑诗省的一起民事案件中发现了对方律师向法院提交虚假判例。 洛恩·麦克莱恩说:“此案的影响令法律界感到不寒而栗。如果我们不对人工智能材料进行事实核查,而它们不准确,可能会对法律体系造成生存威胁:人们浪费金钱,法院浪费资源和税收,而且存在判决错误的风险,所以这是一件大事。” 消息人士透露,此案是一个高净值家庭问题,涉及儿童的最大利益。 据称,律师柯冲 (Chong Ke,音译) 利用 ChatGPT 准备法律材料,以支持一名父亲带孩子去中国访问的申请,她提出了多个实际上不存在的案件判例提交给法院。 柯冲对法庭表示,她不知道像 ChatGPT 这样的人工智能机器人可能不可靠,也没有检查案件是否确实存在,并向法庭道歉。 周二,柯冲离开法庭时泪流满面,并拒绝发表评论。 (Westside Family Law 网页上显示 Chong Ke 的工作图。)  众所周知,像 ChatGPT 这样的人工智能聊天机器人有时会编造听起来很真实但不正确的讯息,这个过程被称为“幻觉”。 这个问题已经渗透到美国的法律体系中,已经发生了几起事件,让律师感到尴尬,并引发了人们对可能损害对法律体系信心的担忧。 一个案件是一名纽约律师因提交了包含 ChatGPT 的虚构案件的法律摘要而被法官处以罚款,该律师坚称这一事件是善意的错误。 另一起案件中,特朗普的前律师科恩 (Michael...

担心人工智能?如何为下一份简历积累技能

  【星岛都市网】业内专家表示,获得足够的人工智能知识以跟上加拿大科技行业不断发展的需求并不困难。 随着越来越多的免费课程在网上提供,而且最近的行业报告显示,今年求职者比以往任何时候都更需要展示人工智能方面的技能,利用这项技术的全球竞赛正在加深。 加拿大科技界人士最近告诉加通社,寻找能够开发人工智能产品或利用人工智能提高效率的员工是当务之急。 多伦多MaRS创新中心的高级顾问杨珍妮(Jenny Yang)说:“每个人都在寻找懂得使用人工智能的人。随着越来越多的招聘单位在其职位列表中添加各种人工智能技能,有一些简单的方法可以确保你能勾选这些选项,让自己脱颖而出”。 微软(Microsoft)、领英(LinkedIn)、谷歌(Google)、亚马逊(Amazon)、IBM、哈佛大学(Harvard University)和佐治亚理工学院(Georgia Tech)等公司和大学都在为想要了解更多信息的人提供免费培训和课程。 亚马逊去年11月发布的研究表明,三分之二(66%)的加拿大雇主优先考虑拥有人工智能技能的求职者。然而,其中 77% 的雇主在招聘合格人才时面临困难。 研究发现,83% 的受访组织预计到 2028 年将使用人工智能驱动的解决方案。研究还发现,雇主愿意多支付至少 25% 的费用来聘用具有人工智能技能的人才。 研究结果表明,为雇主提供人工智能技能人才存在两个障碍。 亚马逊发现,最大的障碍是雇主对如何为现有员工获取人工智能技能缺乏了解。其次,雇主对有哪些人工智能培训项目缺乏了解。 亚马逊的研究在一定程度上促使该公司在去年推出了一项名为“AI Ready”的新举措,致力于到 2025 年在全球范围内为 200 万人提供人工智能培训。 亚马逊网络服务公司(Amazon Web Services)加拿大教育主管科拉尔·肯尼特(Coral Kennett)说:“我们真的想让每个人都知道,这些技能对任何人都是可及的”。 该计划提供的一个项目名为“DeepRacer”,用户可以通过虚拟赛车学习AI技能。去年在温尼伯举行的一次DeepRacer活动吸引了众多人参加,甚至有一些人来自加拿大猪肉委员会(Canadian Pork Council)。 肯尼特告诉《环球新闻》:“从完全没有人工智能方面的经验,到想要重新掌握技能的人......它确实适合所有人”。 对于希望获得人工智能经验的人来说,肯尼特最大的建议就是直接进入并开始探索。没有必要再去读大学的书,有很多资源可供有需要的人使用。 “无论你有多少时间或预算,都有很多不同的选择,”她说。“开始你的旅程吧,看看它会带你走向何方”。 另一位科技业内人士赞同肯尼特的观点,认为现在正是熟悉 ChatGPT 等关键人工智能工具的时候。 杰里米·沙基(Jeremy Shaki),他是灯塔实验室(Lighthouse...

微软30年来首次对Windows PC键盘进行了改动

【星岛都市网】电脑现在可以在alt键和左箭头键之间加入一个“Copilot键”,它可以打开微软的人工智能工具。 Windows Copilot的作用是帮助完成一些困难或琐碎的任务,如撰写或总结冗长的电子邮件,或制作人工智能生成的股票图像,以便在演示文稿中使用。微软称其为“副驾驶员”(copilot),是因为它旨在协助完成这些任务,而让用户自己负责。 新键标志着自1994年推出Windows键以来PC键盘的首次改变。Windows键用于调出开始菜单,但用户经常改变它的用途,或将它与其他键组合使用,以获得额外的选项。 几乎任何键盘都可以与Windows PC配合使用,现有的键盘显然不会有新的按键。但是,微软对Windows和自己的硬件键盘的改动往往会在市场上引起广泛而迅速的变化,Windows键就是如此。 微软表示,许多即将上市的电脑都将集成Copilot键,包括将在下周消费电子展上发布的电脑。该公司表示,这种键盘将从二月下旬到春季上市,包括即将上市的Surface设备。 微软表示,新的变化是“我们在Windows发展历程中的又一个变革性时刻”。微软表示,新Copilot键的推出标志着 “AI PC”时代的开始。 微软在公告中说:“我们相信,这将使人们能够更轻松地参与人工智能变革。Copilot键与Windows键一样,是PC键盘的核心部分,按下后,新键将调用Windows中的Copilot体验,让Copilot无缝地参与到你的日常工作中”。 微软还指出了其他工作,包括依赖机器学习的新软件功能,以及与芯片公司合作,确保芯片为人工智能工作进行优化。 目前,Copilot还不是随处可用。如果电脑无法访问它,按下按钮将打开Windows Search。(都市网Rick编译,图片来源官网截图) (ref:https://www.independent.co.uk/tech/microsoft-keyboard-windows-pc-copilot-key-b2473092.html)

人工智能会有意识吗?我们迫切需要答案

  【星岛都市网】人工智能会有意识吗?目前没有人知道,数学意识科学协会(AMCS)的三位科学家对相关问题缺乏调查研究表示担忧。 AMCS三位领导人呼吁提供更多资金来支持意识和人工智能的研究。他们表示,法律和安全问题使理解人工智能意识变得至关重要。例如,如果人工智能发展出意识,是否应该允许人们在使用后简单地关闭它们? AMCS董事会成员乔纳森·梅森(Jonathan Mason)是英国牛津的数学家,也是评论的作者之一,他说,最近关于人工智能安全的讨论,比如备受瞩目的英国人工智能安全峰会,大多没有这种担忧。梅森指出,美国总统拜登寻求负责任地开发人工智能技术,他的行政命令也没有解决有意识的人工智能系统提出的问题。 梅森说:“随着人工智能的发展,不可避免地会有其他邻近的科学领域需要迎头赶上。意识就是其中之一”。 另两个评论的作者是AMCS主席莱诺尔·布卢姆(Lenore Blum),他是宾夕法尼亚州匹兹堡卡内基梅隆大学的理论计算机科学家,以及董事会主席约翰内斯·克莱纳(Johannes Kleiner),他是德国慕尼黑路德维希·马克西米利安大学研究意识的数学家。 科学界还不知道是否存在或将永远存在有意识的人工智能系统。梅森说,哪怕只是知道是否也将是一个挑战,因为研究人员还没有创造出科学验证的方法来评估机器中的意识。 这样的担忧不再只是科幻小说。包括创建聊天机器人ChatGPT的OpenAI公司在内的公司正致力于开发通用人工智能,这是一种经过训练的深度学习系统,可以执行与人类类似的各种智力任务。一些研究人员预测,这将在5到20年内实现。梅森说,即便如此,意识研究领域还是“支持不足”。他指出,据他所知,2023年还没有一笔资助来研究这一主题。 AMCS的研究人员表示,了解什么可以使人工智能有意识,对于评估有意识的人工智能系统对社会的影响,包括其可能的危险,是必要的。人类需要评估这些系统是否具有人类的价值观和利益。否则,它们可能会给人们带来风险。 AMCS的评论中提出的一些问题是法律问题,以强调意识问题的重要性:有意识的人工智能系统是否应该对故意的不当行为负责?它是否应该被赋予与人民相同的权利?该联盟写道,答案可能需要对法规和法律进行修改。 此外,科学家还需要教育其他人。梅森说,随着公司设计出越来越强大的人工智能系统,公众会怀疑这些系统是否有意识,科学家需要有足够的知识来提供指导。 其他意识研究者对此表示赞同。位于博卡拉顿的佛罗里达大西洋大学未来思维中心主任、哲学家苏珊·施奈德(Susan Schneider)表示,像ChatGPT这样的聊天机器人的行为看起来非常像人类,人们有理由对此感到困惑。如果没有科学家的深入分析,一些人可能会得出结论,认为这些系统是有意识的,而其他公众可能会忽视甚至嘲笑对人工智能意识的担忧。 为了减轻风险,AMCS的评论呼吁政府和私营部门资助更多关于人工智能意识的研究。推进这一领域不需要太多资金。(都市网Rick编译,图片来源pixabay) (ref:https://www.nature.com/articles/d41586-023-04047-6)

人工智能心理治疗:机器人真的能替代人类吗?

  【星岛都市网】心理健康顾问妮可·多伊尔(Nicole Doyle)感到震惊,当美国全国饮食障碍协会的负责人出现在员工会议上,宣布该团体将用聊天机器人替代其热线服务。几天后,这个名为特莎(Tessa)的机器人也因为向处于心理疾病中的人提供有害建议而被停用。 “人们发现它对告诉它他们正在与饮食障碍作斗争的人提供了减肥建议,”33岁的多伊尔说,她是在聊天机器人推出大约一年后于三月被解雇的五名工人之一。 “虽然特莎可能模拟出同情心,但这与真正的人类同情心不同,”多伊尔说。 全国饮食障碍协会(NEDA)表示,尽管机器人背后的研究产生了积极的结果,但他们正在确定所给出的建议发生了什么,并“仔细考虑”下一步行动。NEDA没有直接回应有关顾问裁员的问题,但在电子邮件评论中表示,聊天机器人从未打算取代热线。 从美国到南非,随着健康资源的紧张,使用人工智能的心理健康聊天机器人在全球范围内越来越受欢迎,尽管技术专家对数据隐私和咨询伦理表示担忧。 尽管聊天机器人在全球范围内用于心理健康支持的受欢迎程度不断增加,但Mozilla基金会在2022年5月发布的研究中发现,对于用户来说,隐私问题仍然是一个主要的风险。 研究人员得出结论,认为“人工智能助手可能能够帮助起草对患者问题的回答”,而不是完全取代医生。 但是,尽管机器人可能模拟出同情心,但当人们拨打求助热线时,他们渴望的永远是人类的同情心,前NEDA顾问多伊尔说。 “我们应该使用技术与我们人类一起工作,而不是取代我们,”她说。 随着技术的进步,人工智能在各个领域的应用越来越广泛。然而,当涉及到人的情感和心理健康时,我们必须更加谨慎。机器人或许可以提供即时的回应和建议,但它们永远无法完全理解和体验人类的情感。在寻求心理健康支持时,真正的人类交互仍然是不可替代的。(都市网Rick编译,图片来源pixabay) (ref:https://www.jpost.com/health-and-wellness/article-746992)

人工智能将如何颠覆您的工作

  【加拿大都市网】生成式人工智能应用已迅速登陆工作场所。 生成式人工智能应用程序和平台--只需有限的人工输入即可生成智能的书面内容和令人惊叹的视觉图像--任何人都可以使用。一些领导者不知道生成式人工智能已经在他们的组织中使用,以更有效和高效地完成日常任务。 虽然这种尝试值得称赞,但也存在风险。无论是领导者、工程师还是企业家,没有人完全了解这项技术的潜力。然而,早期的反应与人们对人工智能的一贯看法如出一辙:人工智能将取代我们的工作。 在不远的将来,劳动力工具和流程将与某种形式的生成式人工智能无缝集成。文字处理器将像编辑器一样工作,以前复杂的照片编辑工作将由任何人来完成,而人工智能将彻底改变许多其他资源。但是,要在未来实现与人工智能的无缝融合并非易事。 利用人工智能将成为一项必备技能 我们已经看到,由于人工智能的发展,一些新的工作岗位应运而生。尽管如此,许多工人仍在关注人工智能将淘汰的工作。他们不应该这样。未来,我们都需要根据自己的角色学习如何与人工智能交互--就像我们都学会了使用谷歌快速获取信息的最佳方法一样。例如,律师必须了解生成式人工智能应用在判例法方面可能存在的局限性或知识差距。我们肯定会看到生成式人工智能的用例出现在我们的许多角色中,但不要指望整个行业或领域会因此而消失。如果你不考虑用人工智能驱动的工具来增强你的工作流程,你将在未来落后。 新一代人工智能将带来安全挑战 新一代人工智能可能会带来风险。任何热门的新技术都有这种可能性,但我们已经看到了滥用生成式人工智能的例子。甚至一些大公司,如三星,也在数据泄露后命令员工减少或停止使用这些应用。如果您是领导者,现在就应该开始询问如何以及在何处使用这项技术。与三星一样,您可能在不知不觉中暴露了无数客户、供应商和合作伙伴的数据。 您的公司如何才能拥抱人工智能,而不是完全将其拒之门外? 如果您认为保护自己的唯一方法就是禁止使用人工智能生成工具,那么您将在未来被其他公司超越。现在就挑战自己,降低风险,开拓机遇。 生成式人工智能替代 "胶水工作" 经常听到有人将某些工作描述为维系组织的 "粘合剂"。这可能是将便利贴笔记转换成数字时间表的法律文员,也可能是在快速会议期间以记录清晰笔记而闻名的助理。这些工作看似不可或缺,但生成式人工智能将迅速填补这些角色的某些方面。对于那些可能会被淘汰的人来说,他们有很大的机会进行再培训和继续教育,这就需要当权者积极主动地提供这些支持。那些深入思考这一转型的公司将更好地最大化其退出速度。而那些将这一问题留待日后解决的公司则很可能被抛在后面。 不管你喜不喜欢,生成式人工智能都将改变游戏规则。与其他颠覆性技术一样,在工作场所释放生成式人工智能的潜力并非一蹴而就。如果您接受人工智能的潜力,并努力克服它带来的风险和挑战,您将创造一个更有可能、更快速、更先进的环境。(都市网Rick编译,图片来源pixabay) ref:(https://qz.com/how-ai-will-disrupt-your-job-1850614840)

儿童求助热线引入人工智能 识别关键字加快辨认严重个案

【加拿大都市网】儿童求助热线正应对AI带来的影响,尝试在求助对话中以人工智能将对话进行分类。 自 COVID-19 大流行开始以来,针对儿童和成人的 24-7 全国支持热线的服务需求大幅增加。 根据该组织提供的数据,儿童求助电话在 2019 年接到约 190 万个电话、短信、实时聊天或访问其网站后,自 2020 年以来该数字已跃升至超过 1500 万个。 如果有人在对话中表示“我感到绝望、我想死”之类的内容,人工智能将会把相关对话优先给予辅导员。 Vector 首席数据官兼健康部门副总裁 Roxana Sultan 表示,将人工智能视为一种工具,而不是人类的替代品,是在医疗保健中负责任地使用该技术的关键部分。她表示,如果儿童在交流中使用相关词语,将会对专业人员发出警报。 加拿大心理健康委员会优质心理健康服务部门经理Maureen Abbott表示,人工智能在心理健康领域的应用在全国范围内呈上升趋势。   (图:加通社)T12

许多公司纷纷禁止ChatGPT 他们在怕什么?

  【加拿大都市网】ChatGPT作为一种诱人的助手在许多职业中得到了应用,但并非没有风险,一些公司已经开始在工作中禁止使用这款聊天机器人。 上传与工作相关的信息到在线人工智能平台显然是一种潜在的安全和隐私风险。然而,对于一些感觉时间紧迫的人来说,ChatGPT可以带来很大的帮助。 特别是,软件工程师发现ChatGPT在编写、测试或调试代码方面非常有用,尽管这项技术容易出错。 根据对约12,000名专业人士的调查,大约43%的员工在工作中使用像ChatGPT这样的AI,大部分人都没有告诉他们的老板。 三星电子最近对生成式AI的使用进行了打击,因为一名工程师将敏感的源代码复制粘贴到了ChatGPT中,这是科技公司的噩梦。 和许多公司一样,三星担心任何上传到ChatGPT或Google Bard等AI平台的信息都将存储在这些公司的服务器上,没有办法访问或删除。 人们担心的是,给ChatGPT的专有或敏感公司信息可能会无意中与其他用户共享。 OpenAI仍在解决安全问题:它在三月份暂时关闭了ChatGPT,以修复一个错误:用户可以看到其他用户的聊天历史标题。 然后,在四月份,OpenAI使用户可以关闭他们的聊天历史,该公司表示这将阻止ChatGPT使用数据来训练其AI模型。 由于聊天机器人周围的各种安全问题,大约有一半的人力资源领导人正在为员工制定ChatGPT指南,而3%的人直接禁止了ChatGPT,这是咨询公司Gartner的一项调查结果。 然而,一些公司认识到AI大势滚滚无法阻挡,已经开发或正在创建他们自己的AI平台,作为比ChatGPT更安全的替代品。 亚马逊在一月份禁止了ChatGPT,并敦促其开发人员如果他们想要编程建议或捷径,使用其内部AI称为CodeWhisperer。 在五月份,苹果公司限制了一些员工使用ChatGPT,以防止机密信息的暴露。苹果正在开发其自己的AI平台,与得到了微软数十亿美元投资支持的ChatGPT竞争。 澳大利亚联邦银行在六月份限制了ChatGPT的使用,并指示技术人员使用一种名为CommBank Gen.ai Studio的类似工具,该工具是与硅谷科技公司H2O.ai合作开发的。 其他银行,包括美国银行,花旗集团,德意志银行,高盛,富国银行和摩根大通,都对ChatGPT发出了直接禁止。 会计师事务所普华永道鼓励员工尝试使用ChatGPT,但警告他们不要将该程序用于客户工作。 普华永道的首席数字信息官Jacqui Visch告诉《金融评论》:“我们的政策不允许我们的人员在等待我们对所有技术创新应用质量标准以确保安全的过程中使用ChatGPT。” 根据对来自美国、英国和加拿大的400多名法律专业人士的调查,大约15%的律师事务所已经对ChatGPT发出了警告。总部设在英国的律师事务所Mishcon de Reya因数据敏感的风险禁止使用AI平台。 在五月份,西澳大利亚的五家医院的员工被告知停止使用ChatGPT,一些人使用该平台编写私人医疗记录。 “重要的是,目前,我们不能保证使用AI机器人技术,如ChatGPT时的患者机密性,我们也不完全了解安全风险,”珀斯南部城市医疗服务负责人Paul Forden说。 他说:“出于这个原因,必须立即停止使用AI技术,包括ChatGPT,进行包含任何患者或潜在敏感健康服务信息的工作相关活动。” 公开接受ChatGPT的公司视其为节省内容生成成本的一种方式。可口可乐公司计划使用ChatGPT和AI图像生成器DALL·E进行品牌和内容创建。在一月份,BuzzFeed宣布与OpenAI合作,使用其公开可用的API创建测验和其他内容。 博客网站Medium“欢迎负责任地使用AI辅助技术”,但要求作者披露其使用。CNET曾经悄悄试验过由AI写的故事,但在一月份宣布暂停这项操作。 毫无疑问,生成性AI最终将在办公室中占有一席之地,甚至可能替代一些员工。但是,目前,许多公司认为风险大于收益。(都市网Rick编译,图片来源pixabay) (ref:https://www.sciencealert.com/many-companies-are-banning-chatgpt-this-is-why)

想搭上人工智能的船?哪些股票和AI相关?

【加拿大都市网】人工智能现在是 "下一件大事"。而且它已经深刻地影响了几乎所有与人工智能相关的事物,包括这些和人工智能相关的股票。 例如,Nvidia (NASDAQ:NVDA)在人工智能收益大增的情况下,从280美元涨到387美元。Advanced Micro Devices (NASDAQ:AMD)从约85美元上涨到125美元。微软(NASDAQ:MSFT)从280美元上涨到327美元。 Alphabet(NASDAQ:GOOG, NASDAQ:GOOGL)从约107.5美元上涨到约130美元/股。 但这只是一个开始。据Grand View Research称,随着人工智能改变一切,到2030年,它可能会创造一个潜在的1.81万亿美元的市场。我们在这里只是处于一个巨大的球赛的早期阶段,前面有一个巨大的机会。Grand View Research介绍了三只人工智能股票。 Nvidia (NVDA) Nvidia是人工智能热潮中的佼佼者。大多数人知道Nvidia是因为其游戏玩家使用的GPU或参与加密货币。如今,越来越多的投资者了解到,它的人工智能驱动的GPU也对人工智能有很大影响。事实上,该公司的A100和H100图形处理器,允许人工智能软件做出决定,并快速处理信息。 由于人工智能的蓬勃发展,NVDA的收益爆棚。第一季度每股收益为1.09美元,比预期高出17美分。71.9亿美元的收入也比一致预期高出6.7亿美元。此外,Nvidia甚至看到创纪录的42.8亿美元的数据中心收入。 C3.ai (AI) 人工智能软件股票C3.ai(NYSE:AI),过去几周从约20美元的低点涨到到42美元。这都要归功于人工智能的故事和Nvidia的井喷式盈利。韦德布什(Wedbush)的分析师丹·艾夫斯(Dan Ives)刚刚将该股的评级提高到优于大盘,目标价从25美元提高到50美元。 此外,该公司提供了坚实的数字,超过了顶线和底线。而且,该公司希望到明年实现现金正增长和非GAAP盈利,该公司正朝着正确的方向发展。 SoundHound AI (SOUN) 另一只容易接触人工智能的热门股票是SoundHound AI(NASDAQ:SOUN),这是一家价值6.52亿美元的公司,开发对话式人工智能技术。其目标是让人类与技术互动,就像他们与朋友互动一样。更好的是,该公司正在与汽车行业合作,将语音助手整合到汽车中--这可能是大规模的,SOUN预计90%的新车将有自动助手。 由于该公司所谓的 "对对话式人工智能需求的惊人激增",该公司的收入同比增长了56%。毛利率从56%上升到71%。第一季度每股收益为https://investorplace.com/2023/06/3-stocks-to-buy-for-easy-exposure-to-ai/净亏损13美分,同比和环比都有改善。 更好的是,根据新闻稿,"SoundHound继续预计2023年的收入将在4300万到5000万美元之间。该公司继续预期在2023年第四季度调整后的EBITDA为正值。" (免责声明:本文仅传递信息,并不构成投资建议。任何造成的风险与损失与本网站无关) (都市网Rick编译,图片来源pixabay) (ref:https://investorplace.com/2023/06/3-stocks-to-buy-for-easy-exposure-to-ai/)

关乎饭碗!加拿大这些支柱行业将受AI严重影响

【加拿大都市网】一份新出炉的研究报告称,加拿大的支柱行业,包括金融服务和能源业,将成为受人工智能(AI)影响最严重的行业,迫使加拿大企业和联邦政府一改保守传统,加大投资,争取成为这波创新浪潮的引领者。 据《环球邮报》(The Globe and Mail)报道,全球大型管理顾问公司埃森哲(Accenture)全球报告称,生成人式工智能如ChatGPT和DALL-E,将永远改变我们的工作方式。然而,这种破坏将在银行、保险和资本市场领域最为明显,其次是能源行业。 据研究机构IBIS World的数据,这些都是加拿大收入最高的行业。 虽然加拿大商界过去对科技运用采取更为保守的方法,但专家预测,鉴于这些行业的经济重要性,此次对人工智能采用的情况将有所不同。 埃森哲数据、分析和应用智能董事总经理班纳吉(Krish Banerjee)表示,在他们调查的数百名加拿大高管中,近四分之三表示,他们将在这个领域进行更多投资,他说:“约97%的人表示,AI将是他们业务的优先事项。” 报告指,加拿大金融服务和能源行业的公司,对生成人式工智能表现出浓厚的兴趣,期待探索该技术及其潜在好处,班纳吉说,员工很快就会看到这些技术融入到他们工作中所产生的改变。 皇后大学史密斯商学院(Smith School of Business at Queen's University)管理分析学教授托马斯(Stephen Thomas)认为,受人工智能影响最严重行业的加拿大企业,正异常迅速地采用它们。 他表示,加拿大一向以保守、规避风险著称,尤其是在银行业,但由于一些不同的原因,人工智能似乎是个例外。他指,这些企业“愿意在这方面更快地采取行动,而不是等待10年,然后看看美国或欧洲的进展情况。” 托马斯解释,未解决的道德、法律和实际挑战阻碍了大多数人广泛采用生成式AI工具,虽然这些问题迟早要解决,但他补充说,许多加拿大公司已经开始投资、试验和密切关注该领域。 他表示,大流行加快了数码技术在银行、保险和能源领域的采用,这些努力在人工智能支持的未来可能被证明是至关重要的。 他指,与之前的创新浪潮相比,联邦政府在人工智能研究上的支出也让加拿大企业有了优势。 “正因为如此,我认为银行、保险公司、能源公司将能够快速行动,并迅速利用这些人工智能工具和应用程式,并最终在生产力、降低成本、更满意的客户方面实现收益,所有这些都将推动增长。” 图:Getty Images V6