选城市 : 多伦多 | 温哥华
2024年03月01日 星期五 13:27:03
dushi_city_toronto
dushi_city_vancouver
dushi_top_nav_01
dushi_top_nav_29
dushi_top_nav_02
dushi_top_nav_28
dushi_top_nav_22
dushi_top_nav_05
dushi_top_nav_24

Tag: ChatGPT

华裔律师用ChatGPT准备法庭材料 提交虚假案例遭批!

【星岛都市网】加拿大首例涉及人工智能创造假法律案件的情况发生在卑诗省法院中,当事人是一名华裔律师。 《Global News》报道,律师麦克莱恩夫妇 (Lorne and Fraser MacLean) 在卑诗省的一起民事案件中发现了对方律师向法院提交虚假判例。 洛恩·麦克莱恩说:“此案的影响令法律界感到不寒而栗。如果我们不对人工智能材料进行事实核查,而它们不准确,可能会对法律体系造成生存威胁:人们浪费金钱,法院浪费资源和税收,而且存在判决错误的风险,所以这是一件大事。” 消息人士透露,此案是一个高净值家庭问题,涉及儿童的最大利益。 据称,律师柯冲 (Chong Ke,音译) 利用 ChatGPT 准备法律材料,以支持一名父亲带孩子去中国访问的申请,她提出了多个实际上不存在的案件判例提交给法院。 柯冲对法庭表示,她不知道像 ChatGPT 这样的人工智能机器人可能不可靠,也没有检查案件是否确实存在,并向法庭道歉。 周二,柯冲离开法庭时泪流满面,并拒绝发表评论。 (Westside Family Law 网页上显示 Chong Ke 的工作图。)  众所周知,像 ChatGPT 这样的人工智能聊天机器人有时会编造听起来很真实但不正确的讯息,这个过程被称为“幻觉”。 这个问题已经渗透到美国的法律体系中,已经发生了几起事件,让律师感到尴尬,并引发了人们对可能损害对法律体系信心的担忧。 一个案件是一名纽约律师因提交了包含 ChatGPT 的虚构案件的法律摘要而被法官处以罚款,该律师坚称这一事件是善意的错误。 另一起案件中,特朗普的前律师科恩 (Michael...

ChatGPT描述温哥华真实且幽默 网民纷纷惊叹

  【加拿大都市网】ChatGPT称为不少国民科普知识的必备工具,但有温哥华的市民发现,ChatGPD对温哥华的20个社区却是有赞有弹,有网民认为这是真实的温哥华描述。 近日不少温哥华的市民尝试用ChatGPT搜索自己居住社区,形容描述幽默带有真实感。例如温哥华的喜士定(Hastings)社区,ChatGPT形容就如一颗隐藏宝石,需要大家去探索才能感受到当中的奥妙;温市中心西端(West End)则形容为一座石屎森林,柏文大楼内的居民争取社区位数不带的绿地,停车位非常迷你,需要非常好的车技。 温西地区则被描述为精英、富裕的完美天堂,当地一处小房产或艺术品,足够影响一个小国家的GDP。 对于京士威(Kingsway)一带的社区,被ChatDPT形容为一个文化万花筒,融合的各样美食及各类文化的人士,生活的情趣及遭遇都可以在这个社区经历;缅街(Main Street)充满时尚的餐馆,很多人都希望当地油炸食品;华埠社区是一个充满中式风情的街道,但小巷内却是另一个神秘世界。 最有趣的描述莫过于耶鲁镇(Yaletown),当地被形容为富人和时尚天堂,同时也是一个宠物友好社区,市民都喜欢带着爱犬在当地行走,更有多个宠物美容中心,在内美容的狗只比人还要多。 V21

许多公司纷纷禁止ChatGPT 他们在怕什么?

  【加拿大都市网】ChatGPT作为一种诱人的助手在许多职业中得到了应用,但并非没有风险,一些公司已经开始在工作中禁止使用这款聊天机器人。 上传与工作相关的信息到在线人工智能平台显然是一种潜在的安全和隐私风险。然而,对于一些感觉时间紧迫的人来说,ChatGPT可以带来很大的帮助。 特别是,软件工程师发现ChatGPT在编写、测试或调试代码方面非常有用,尽管这项技术容易出错。 根据对约12,000名专业人士的调查,大约43%的员工在工作中使用像ChatGPT这样的AI,大部分人都没有告诉他们的老板。 三星电子最近对生成式AI的使用进行了打击,因为一名工程师将敏感的源代码复制粘贴到了ChatGPT中,这是科技公司的噩梦。 和许多公司一样,三星担心任何上传到ChatGPT或Google Bard等AI平台的信息都将存储在这些公司的服务器上,没有办法访问或删除。 人们担心的是,给ChatGPT的专有或敏感公司信息可能会无意中与其他用户共享。 OpenAI仍在解决安全问题:它在三月份暂时关闭了ChatGPT,以修复一个错误:用户可以看到其他用户的聊天历史标题。 然后,在四月份,OpenAI使用户可以关闭他们的聊天历史,该公司表示这将阻止ChatGPT使用数据来训练其AI模型。 由于聊天机器人周围的各种安全问题,大约有一半的人力资源领导人正在为员工制定ChatGPT指南,而3%的人直接禁止了ChatGPT,这是咨询公司Gartner的一项调查结果。 然而,一些公司认识到AI大势滚滚无法阻挡,已经开发或正在创建他们自己的AI平台,作为比ChatGPT更安全的替代品。 亚马逊在一月份禁止了ChatGPT,并敦促其开发人员如果他们想要编程建议或捷径,使用其内部AI称为CodeWhisperer。 在五月份,苹果公司限制了一些员工使用ChatGPT,以防止机密信息的暴露。苹果正在开发其自己的AI平台,与得到了微软数十亿美元投资支持的ChatGPT竞争。 澳大利亚联邦银行在六月份限制了ChatGPT的使用,并指示技术人员使用一种名为CommBank Gen.ai Studio的类似工具,该工具是与硅谷科技公司H2O.ai合作开发的。 其他银行,包括美国银行,花旗集团,德意志银行,高盛,富国银行和摩根大通,都对ChatGPT发出了直接禁止。 会计师事务所普华永道鼓励员工尝试使用ChatGPT,但警告他们不要将该程序用于客户工作。 普华永道的首席数字信息官Jacqui Visch告诉《金融评论》:“我们的政策不允许我们的人员在等待我们对所有技术创新应用质量标准以确保安全的过程中使用ChatGPT。” 根据对来自美国、英国和加拿大的400多名法律专业人士的调查,大约15%的律师事务所已经对ChatGPT发出了警告。总部设在英国的律师事务所Mishcon de Reya因数据敏感的风险禁止使用AI平台。 在五月份,西澳大利亚的五家医院的员工被告知停止使用ChatGPT,一些人使用该平台编写私人医疗记录。 “重要的是,目前,我们不能保证使用AI机器人技术,如ChatGPT时的患者机密性,我们也不完全了解安全风险,”珀斯南部城市医疗服务负责人Paul Forden说。 他说:“出于这个原因,必须立即停止使用AI技术,包括ChatGPT,进行包含任何患者或潜在敏感健康服务信息的工作相关活动。” 公开接受ChatGPT的公司视其为节省内容生成成本的一种方式。可口可乐公司计划使用ChatGPT和AI图像生成器DALL·E进行品牌和内容创建。在一月份,BuzzFeed宣布与OpenAI合作,使用其公开可用的API创建测验和其他内容。 博客网站Medium“欢迎负责任地使用AI辅助技术”,但要求作者披露其使用。CNET曾经悄悄试验过由AI写的故事,但在一月份宣布暂停这项操作。 毫无疑问,生成性AI最终将在办公室中占有一席之地,甚至可能替代一些员工。但是,目前,许多公司认为风险大于收益。(都市网Rick编译,图片来源pixabay) (ref:https://www.sciencealert.com/many-companies-are-banning-chatgpt-this-is-why)

ChatGPT帮助人类开发 设计农场摘番茄机器人

【加拿大都市网】什么是ChatGPT不能做的吗?当然有,但这个清单似乎越来越少了。现在,研究人员已经使用大型语言模型来帮助他们设计和建造一个摘番茄的机器人。 大型语言模型(LLMs)可以处理和内化大量的文本数据,利用这些信息来回答问题。OpenAI的ChatGPT就是这样一个LLM。 在一项新的案例研究中,来自荷兰代尔夫特理工大学(Delft University of Technology)和瑞士联邦理工学院(EPFL)的研究人员寻求ChatGPT-3的帮助来设计和建造一个机器人,考虑到ChatGPT是一个语言模型,这可能看起来很奇怪。 “尽管ChatGPT是一个语言模型,它的代码生成是基于文本的,但它为物理设计提供了重要的见解和直觉,并显示出作为激发人类创造力的传声筒的巨大潜力,”关于这一经验的公开案例研究的共同作者Josie Hughes说。 首先,研究人员问人工智能模型:“人类的未来挑战是什么?” ChatGPT提出了三点:粮食供应、人口老化和气候变化。研究人员选择粮食供应作为机器人设计的最有希望的方向,因为这不在他们的专业领域之内。 利用LLM对来自学术出版物、技术手册、书籍和媒体的全球数据的访问,研究人员问人工智能,一个机器人收割机应该具备哪些功能。ChatGPT想出了一个电机驱动的抓手,用于将成熟的番茄从藤上拉下来。 一旦决定了这一总体设计,研究人员就可以继续进行具体的设计,包括使用什么材料和创建控制它的电脑代码。目前,LLM不能生成整个电脑辅助设计(CAD)模型、评估代码或自动制造机器人,因此这一步需要研究人员扮演“技术员”的角色,在这些方面提供协助,优化LLM编写的代码,最终确定CAD并制造机器人。 “虽然计算在很大程度上被用来协助工程师进行技术实施,但人工智能系统第一次可以构思新的系统,从而实现高级认知任务的自动化,”该案例研究的主要作者Francesco Stella说,“这可能涉及到人类角色向更多技术角色的转变”。 根据ChatGPT-3提供的技术建议,研究人员建造了他们的机器人抓手,并在现实世界中进行了测试,用它来采摘番茄,它成功地做到了。 研究人员说,他们的案例研究展示了通过人类和LLM之间的合作来转变设计过程的潜力,但他们也意识到,这为不同程度的合作打开了大门。 他们说,在一个极端,人工智能将充当“发明家”,提供全部的机器人设计输入,而人类则依据应用它。另一种方法是利用人工智能的广泛知识来补充人类的专业知识。第三种方法是保留人类作为发明者,利用人工智能通过故障排除、调试和处理繁琐或耗时的过程来完善设计过程。 研究人员提出了人类与人工智能合作可能产生的道德和常识性风险。他们指出偏见、剽窃和知识产权(IP)问题是值得关注的领域,并质疑LLM生成的设计是否可以被视为“新颖”,因为它使用了现有的知识。 Josie Hughes说:“在我们的研究中,ChatGPT确定番茄是‘最值得’追求的机器人收割机的农作物。然而,这可能偏向于文献中较多提及的农作物,而不是那些真正有实际需求的农作物。当决定是在工程师的知识范围之外做出的,这可能导致重大的道德、工程或事实错误。” 尽管有这些担忧,研究人员认为,如果管理得当,人类与人工智能的合作有很大的潜力。 研究人员说:“机器人界必须确定如何利用这些强大的工具,以道德、可持续和社会授权的方式加速机器人的进步。展望未来,我们坚信,LLMs将开辟许多令人兴奋的可能性,如果管理得当,它们将成为一种有益的力量。” 图片:CREATE Lab/EPFL T09 一

加拿大iOS用户现可下载ChatGPT应用程式

【加拿大都市网】在美国推出仅一周之后 ,OpenAI已经扩大了在其他三十多个国家的iOS用户的ChatGPT应用程式的可用性。 除了加拿大,新国家名单包括阿尔及利亚、阿根廷、阿塞拜疆、玻利维亚、巴西、智利、哥斯达黎加、厄瓜多尔、爱沙尼亚、加纳、印度、伊拉克、以色列、日本、约旦、哈萨克、科威特、黎巴嫩、立陶宛、毛里塔尼亚、毛里求斯、墨西哥、摩洛哥、纳米比亚、瑙鲁、阿曼、巴基斯坦、秘鲁、波兰、卡塔尔、斯洛文尼亚、突尼西亚和阿联酋。 本周早些时候,OpenAI将ChatGPT应用程式扩展到美国之后的另外11个国家,这些国家包括法国、德国和爱尔兰等欧洲国家,以及新西兰、尼日利亚、韩国和英国。 根据应用程式情报公司data.ai分享的数据,自上周四(5月18日)在美国首次推出以来的前六天,ChatGPT手机应用程式已经突破了50万次下载大关。这一成就使其成为表现最好的新应用程式之一。根据data.ai的数据,它自推出以来的下载量也超过了其他人工智能和聊天机械人应用程式,以及美国的微软Edge和Bing应用程式。 ChatGPT应用程式可以免费下载,用户可以使用他们的iPhone与基于人工智能的生成性聊天机械人进行互动。它还支持通过OpenAI的语音识别系统Whisper进行语音输入,并让ChatGPT Plus用户通过GPT-4获得高级功能。此外,用户还可以直接通过iOS应用程式订阅ChatGPT Plus服务,在美国每月收费20美元(约27加元)。 OpenAI目前只有iOS版的ChatGPT应用程式。然而,这家由微软和Tiger Global、a16z等著名风险投资公司支持的初创公司也在计划推出Android版本,并承诺将很快推出市场。 图片:Getty Images T09

ChatGPT在iPhone推出官方应用 用户可以用语音交谈

  【加拿大都市网】ChatGPT现在已经是一款智能手机应用了,这对喜欢使用人工智能聊天机器人的人来说可能是个好消息,但对于那些试图利用这项技术获利的克隆应用来说,可能是个坏消息。 这款免费的应用周四在美国的iPhone和iPad上推出,并将稍后推向安卓设备。与桌面网络版本不同,Apple的iOS操作系统的移动版还允许用户用他们的声音与其交谈。 制造这款产品的公司,OpenAI,表示它将保持无广告,但“会在不同设备之间同步你的历史记录。” “我们首先在美国推出,接下来的几周内会扩展到其他国家,”一篇公告新应用的博客文章说。在App Store中,这款应用被描述为OpenAI的“官方应用”。 自OpenAI向公众发布ChatGPT已经过去五个多月了,它能够生成令人信服的类人类文章、诗歌、表格信件以及对几乎任何问题的对话答案,这激发了人们的兴奋和担忧。但是,这家旧金山初创公司似乎并不急于将其推向手机——这是大多数人访问互联网的地方。 OpenAI的首席执行官Sam Altman本周在一次关于如何监管他的公司等AI系统的听证会上告诉美国参议员们:“我们并不是想让人们越来越多地使用它。” 产品推向手机的延迟助长了基于类似技术构建的克隆应用的崛起,其中一些应用被安全公司Sophos在本周的一份报告中描述为“剪羊毛软件”,因为他们将毫无戒心的用户推向注册免费试用,而这将转变为定期订阅,或者使用侵入式的广告技巧。 另一位隐私研究员Simon Migliano表示,官方的ChatGPT应用可能最终会让类似的应用失去新用户,但这可能需要一段时间,因为许多应用的命名是为了混淆人们,让人们误以为他们已经拥有了官方应用。他还表示,这些应用还“高度优化”,以便在苹果的App Store搜索结果中排名靠前。 Migliano说:“对于那些已经下载了克隆版本的用户,他们很可能会坚持使用他们已经拥有的ChatGPT应用,并继续让他们的个人数据被收集和销售。” Altman本周告诉国会,他的公司并不试图最大化参与度,因为它并没有基于广告的业务,而且在所谓的图形处理单元的计算机芯片上训练和运行其AI模型的成本很高。 Altman说:“实际上,我们对GPU的需求非常大,所以人们越少使用我们的产品,对我们来说就越好。” 新应用确实包括一个付费获取ChatGPT额外功能的优质版本选项。除了这些订阅,该公司还通过开发人员和企业支付将其AI模型集成到他们自己的应用和产品中来赚钱。 其主要合作伙伴,微软,已经向这家初创公司投入了数十亿美元,并已将类似于ChatGPT的技术集成到了自己的产品中,包括其搜索引擎Bing的聊天机器人。 ChatGPT应用现在将与已经在iPhones上可用的Bing聊天机器人争夺用户注意力,可能最终会与竞争对手Google的聊天机器人,名为Bard的移动版本竞争。OpenAI的聊天机器人技术的版本也可以在其他应用中找到,比如Snapchat的“我的AI”功能。(加通社,都市网Rick编译,图片来源星岛资料图)

ChatGPT会不会取代谷歌?谷歌和微软谁更有前途?

【加拿大都市网】ChatGPT 成为病毒式新技术的焦点。这款使用人工智能(AI)的聊天机器人不仅可以回答用户问题,并提供类似对话的回复,而且还是历史上增长速度最快的应用程序。自2022年底推出以来,ChatGPT在短短几个月内增长到了16亿访问者。 微软投资了ChatGPT背后的公司OpenAI,并将其技术整合到了必应(Bing)搜索引擎中,向Alphabet(谷歌的母公司)全球搜索市场占据93%份额的垄断地位发起挑战。 谷歌的日子是否已经屈指可数?以下是我们所了解的情况。 微软必应正在发起进攻 Alphabet几乎垄断了搜索引擎市场近20年,公司基于广告收入不断壮大,这些收入来自于用户在谷歌搜索并点击链接结果页面。 Alphabet每三个月在搜索引擎上获得约400亿美元的收入,其在全球搜索市场占据的压倒性93%份额意味着微软几乎完全无法进入。 但ChatGPT可能会威胁到谷歌等传统搜索引擎,让用户体验显得过时。ChatGPT可以从互联网上获取信息,对几乎任何查询提供类似对话的回复,从而消除了在结果页面中翻阅的繁琐过程。 微软重新推出了整合了ChatGPT功能的必应。在截至3月31日的季度收益电话会议上,微软首席执行官萨提亚·纳德拉(Satya Nadella)指出,必应拥有1亿日活跃用户,且自重新推出以来,每日安装量增长了四倍。 然而,微软能否保持必应的势头尚有待观察。该公司一直在寻找机会取代谷歌,,据说它在寻求与网络浏览器Firefox和智能手机制造商三星讨论搜索引擎的权利。 Alphabet的AI反击 搜索是Alphabet的金鸡母,支付了公司的大部分账单,占总年收入的一半以上。这家公司绝不会坐视微软瓜分其核心业务,现在它开始反击了。 Alphabet最近举行了一场活动,展示了即将上市的多个AI产品和开发成果。该公司宣布计划将生成式AI整合到谷歌搜索中,让用户可以获得类似于ChatGPT的体验。谷歌还将在AI回应中提供链接,并建议后续问题或操作步骤。 生成式AI还将渗透到谷歌的购物功能中,并与谷歌工作空间集成,使用户可以在一个应用程序与另一个应用程序之间进行搜索。 Alphabet拥有二十年的搜索引擎数据,这是一笔无与伦比的宝贵信息,可以用来训练其AI模型。尽管微软率先采取行动,但这并不意味着它将赢得战争。Alphabet多年的谷歌品牌效应,用户可能不会轻易改变他们的“谷歌搜索”习惯。通过AI改善用户体验可能会进一步加强其竞争优势。 Alphabet投资者应该怎么做? 时间会证明微软是否能推翻谷歌,但这样的攀坡之战意味着Alphabet投资者应该在有无可争议的证据之前保持冷静。在没有显示潮流转向的市场份额数据之前,谷歌搜索看起来还不错,特别是在AI改进即将到来的情况下。 ChatGPT的初步消息对Alphabet的股价产生了压力,但自那时以来已经恢复,股票自1月以来上涨了32%。然而,该股票的市盈率(P/E)为22,仍低于其长期平均估值。 Alphabet的谷歌是一家出色的企业,虽然近期的动荡比以往更为剧烈,但AI的到来最终可能会对公司及其股东产生长期利益。(都市网Rick编译,图片来源星岛资料图) (ref:https://www.fool.com/investing/2023/05/16/will-chatgpt-replace-google-heres-what-we-know/)

硏究:ChatGPT胜医生 更有同情心回答更高质量!

【加拿大都市网】ChatGPT近期是一个热门话题,新的研究发现,跟人类医生相比,ChatGPT更有同情心,对现实世界的健康问题提供更高质量的答复,这就提出了一个问题:医生是否可以被取代? 虚拟医疗,本身就是人工智能的一种形式,在新冠疫情大流行的高峰期起飞,作为一种在人们被隔离或封锁时向他们提供医疗专业人士的方式。 但在大流行期间,虚拟医疗的兴起给医生带来了额外的压力,他们看到病人的电子信息增加了1.6倍,每条信息在病人的电子记录中增加了超过两分钟的工作,并增加了下班后的工作。工作量的增加导致62%的美国医生报告了倦怠症状,创下历史新高,同时也增加了病人信息不被回复的可能性。 这促使加州大学(UC)圣地亚哥分校的研究人员考虑人工智能的作用,特别是ChatGPT在医学中的作用。他们想知道ChatGPT是否能准确地回应病人发给医生的问题类型。 “ChatGPT可能能够通过医学执照考试,”共同作者、加州大学圣地亚哥分校医学院的医生和教授Davey Smith博士说,“但直接准确和有同情心地回答病人的问题是一个不同取向。” 为了获得一个大型的、多样化的样本组,研究小组转向Reddit的AskDocs子版块(r/AskDocs),该版块有超过48万名成员,他们发布医疗问题,由有执照的、经过验证的医疗保健专业人士回答。 研究人员从r/AskDocs中随机抽取了195个个别的交流,将原始问题输入ChatGPT(3.5版),并要求它生成一个回应。三位有执照的医护人员评估了每个问题和相应的回答,他们不知道这些问题是来自医生还是ChatGPT。 评估人员首先被问到哪种回答是 “更好的”。然后,他们必须对所提供信息的质量(非常差、差、可接受、好或非常好),以及所提供的同情心或问症床边态度(没有同情心、稍有同情心、适度同情心、有同情心、非常有同情心)进行评分。评估人员在79%的情况下喜欢ChatGPT的回答。 合著者Jessica Kelley说:“ChatGPT信息的回应细微而准确,往往比医生的回应更能解决患者问题的各个方面。” 研究还发现ChatGPT提供了更高质量的回应。ChatGPT的“好”或 “非常好”的回答是医生的3.6倍(ChatGPT为78.5%,医生为22.1%)。而且人工智能更具有同情心。“有同情心”或“非常有同情心”的回答,ChatGPT是医生的9.8倍(ChatGPT为45.1%,医生为4.6%)。 研究人员说,这并不意味着医生是不可缺少的;他们需要接受ChatGPT作为一种学习工具来改善他们的实践。 “虽然我们的研究将ChatGPT与医生对立起来,但最终的解决方案并不是将你的医生完全放弃,”研究的共同作者Adam Poliak说。“相反,医生利用ChatGPT是更好和有同情心的护理的答案”。 研究人员说,对ChatGPT和其他人工智能的投资将对病人的健康和医生的表现产生积极的影响。 “我们可以利用这些技术来训练医生以病人为中心的沟通,消除经常通过信息传递寻求医疗保健的少数民族人口所遭受的健康差异,建立新的医疗安全系统,并通过提供更高质量和更有效的护理来协助医生,”共同作者Mark Dredze说。 由于这项研究的结果,研究人员正在考虑进行随机对照试验,以判断在医学中使用人工智能如何影响医生和患者的结果。 T09

OpenAI解决隐私问题 ChatGPT重返意大利

【加拿大都市网】ChatGPT的制造商OpenAI周五表示,在该公司满足了监管机构的要求后,人工智能聊天机器人又可以在意大利使用了。 OpenAI指出,它满足了意大利数据保护机构希望在4月30日最后期限前实现的一系列条件,从而解除了对该人工智能软件的禁令。 总部设在三藩市的OpenAI通过电子邮件说:“ChatGPT再次向我们在意大利的用户开放。我们很高兴欢迎他们回来,而且我们仍然致力于保护他们的隐私。” 像ChatGPT这样的生成型人工智能系统,利用数码书籍、博客文章和其他媒体等庞大的在线数据库,模仿人类的工作来生成文本、图像和其他内容,在科技界和其他领域引起了轰动。 但是,它们的快速发展已经激起了官员甚至技术领袖对可能的道德和社会风险的担忧,欧盟的谈判人员争相更新已经酝酿多年的人工智能法规草案。 上个月,意大利监督机构Garante命令OpenAI暂时停止处理意大利用户的个人信息,同时调查可能的数据泄露。该机构表示,它不想阻碍人工智能的发展,但强调遵循欧盟严格的数据隐私规则的重要性。 OpenAI表示它“处理或澄清了”监督机构提出的问题,措施包括在其网站上增加关于如何收集和使用数据的信息,以训练为ChatGPT提供动力的算法,为欧盟用户提供反对将其数据用于训练的新表格,并在注册时增加一个工具来验证用户的年龄。 一些意大利用户分享了这些变化的截图,包括一个要求用户确认其年龄的选项按钮,以及更新的隐私政策和培训数据帮助页面的链接。 Garante在一份声明中说,它“欢迎OpenAI实施的措施”,并敦促该公司遵守其他两项要求,即建立年龄验证系统和开展宣传活动,让意大利人了解背景故事和他们选择退出数据处理的权利。 该监督机构在上个月发现一些用户的信息和支付信息被暴露给其他人后,实施了禁令。另外,它还质疑OpenAI收集用于训练ChatGPT算法的大量数据是否有法律依据,并对该系统有时可能产生关于个人的虚假信息提出了担忧。 图片:美联社、路透社 T09  

特写故事:她成功利用ChatGPT解决租金纠纷

  【加拿大都市网】纽约市一名女子,表示她成功利用OpenAI的ChatGPT聊天机器人帮助她解决公寓大楼里的设备问题,此前房东试图提高她的租金。 这名被称为 "斯韦特兰娜"的妇女告诉SWNS媒体,"在我以全楼服务减少为由提出投诉并要求降低租金后,他们竟然提高租金,似乎是在进行报复。“ 她说,她所在大楼的洗衣机和烘干机已经不能使用超过两年了。在她提交要求降低租金的申请后的几天,她收到了一条消息,通知她的租金将从$1,389上调0.4%,至$1,395。她向广受欢迎的聊天机器人ChatGPT求助,希望它能帮助她起草一封降低租金的信。ChatGPT能够根据给定的提示与用户进行类似于人类的对话,其用户基数在一月份以每月1亿活跃用户的速度增长。 斯韦特兰娜告诉SWNS:“经过几次尝试,终于做到了完美。我提示ChatGPT加入更多法律术语。” ChatGPT成功起草了一封信,引用了纽约租金稳定法规,并认为由于斯韦特兰娜要求降低租金,这次租金上涨是出于报复。 “这就是ChatGPT的优势——协作能力、灵活应对,将想法整合成一篇连贯的文章。”28岁的斯韦特兰娜说。 她还表示:“这就像是一个超级聪明、客观、实时的参谋。” 她说,在她将AI生成的信件寄给房东的同一个月,洗衣机得到了修理。 斯韦特兰娜补充说:“我从未收到过房东的正式回复。我在大楼里看到了一张公告,宣布洗衣房重新投入使用。” 斯韦特兰娜告诉媒体,她是一名行政助理,会在工作中使用ChatGPT。在成功解决与房东的问题后,她正在考虑将聊天机器人用于其他法律问题。 她说:“我考虑过给经常在室内抽烟的邻居发一封恐吓性的法律信。” 斯韦特兰娜表示,这绝对增强了她对AI的信心,她认为AI的未来可能是无限的。 与此类似,在今年早些时候的英国,一名大学生表示她利用ChatGPT起草了一封信,帮助她成功取消了一张停车罚单。(都市网Rick编译,图片来源星岛资料图) (ref:https://www.foxnews.com/tech/woman-turns-to-chatgpt-after-landlord-tries-to-hike-rent-despite-broken-washing-machines)

用ChatGPT来生成Windows产品密钥 这人的做法引起争议

  【加拿大都市网】OpenAI的ChatGPT能够生成Windows 95操作系统的产品密钥,引起了人们的关注。Gizmodo首次报道了这一情况,指出这一现象涉及到1995年发布的Windows 95操作系统。当人们向聊天机器人提问,请求生成有效的Windows 95密钥时,ChatGPT表示无法这样做,因为激活密钥必须从软件供应商购买。然而,一位名为Enderman的YouTuber发现,Windows 95密钥使用了一组序数和其他随机数作为参数。 通过要求ChatGPT根据特定参数生成一个20个字符的随机字符串,Enderman成功地让ChatGPT生成了一个Windows 95产品密钥。实际上,他发现,每30次尝试就能生成一个有效的密钥。值得注意的是,Enderman并没有直接要求ChatGPT生成Windows密钥,而是生成了一个满足所有Windows密钥标准的字符序列。 据Gizmodo报道,Enderman在OpenAI较旧的GPT-3语言模型和较新的GPT-4模型上都尝试了这一技巧。与GPT-3相比,GPT-4能够生成更多的密钥。虽然Windwos 95已经没有多少人使用,但这一发现仍引起了人们对AI能力和道德层面的讨论。 Enderman表示,这一现象其实是一件好事,因为它揭示了AI的潜能。他认为,像微软这样的公司不应该因用户滥用AI而禁止他们使用或削弱AI的功能。相反,他们应该奖励那些找到这类漏洞的积极用户,并有针对性地进行修补。这样做不仅有助于改进AI系统,而且还可以让公司了解潜在的问题并采取相应的措施。 事实上,AI技术在不断发展,很多情况下都超出了开发者的预期。在这种情况下,用户可能会发现一些未曾预料到的功能或应用,这对AI技术的进步和完善至关重要。通过对这些“意外发现”进行反馈和修正,AI技术才能不断优化,更好地适应和服务于人类社会。 然而,此类事件也引发了关于AI伦理和法律责任的讨论。虽然ChatGPT生成了有效的产品密钥,但这可能导致盗版软件的传播,侵犯了知识产权。因此,我们需要在技术创新与道德伦理之间找到平衡,确保AI技术的健康发展。(都市网Rick编译,图片来源星岛资料图) (ref:https://gizmodo.com/chatgpt-free-windows-keys-95-old-youtube-enderman-1850298614)

欧洲刑警报告:犯罪分子利用ChatGPT犯案

【加拿大都市网】 OpenAI研发的ChatGPT 聊天机器人掀起的科技大潮席卷全球,除了方便大家工作和生活,也可能吸引了犯罪分子的注意,“善用”它来犯案。欧洲刑警组织Europol便警告,罪犯已利用这类AI工具进行不同方式的高科技违法行为。 Europol在最新报告中指出,从发动网络钓鱼攻击、散布虚假信息,以至安装恶意软件等,聊天机器人强大而快速的功能,有助坏人进行犯罪行为,“罪犯可能利用这类AI工具犯案,前景堪忧。” Europol新设的“创新实验室”(Innovation Lab)的目的是帮助调查人员充分利用新科技提供的机会,更有效率去打击罪案。该组织虽着眼于整体聊天机器人的使用,但特别聚焦于ChatGPT,因为它最引人注目和使用最为广泛。他们发现犯罪分子可能会积极利用ChatGPT,包括拟定欺诈犯案计划,例如查询“如何闯入民居、策划恐怖活动、网络犯罪与性侵儿童”等资讯。 Europol提到,ChatGPT聊天机器人具模仿说话风格的能力,有助发动网络钓鱼攻击,能引诱被骗目标点击虚假电邮链接,之后再窃取他们的个人资料。它也能迅速产出逼真的语音文本,对于宣传和散布不实信息甚具效率。对没有科技背景的罪犯 ,可以帮忙编写电脑程式的ChatGPT更大派用场。 根据美国和以色列网络情报公司Check Point Research的报告,聊天机器人可用来撰写钓鱼电邮渗透网路。尽管ChatGPT有防护措施,例如内容审查,拒答有害或偏激的问题,但巧妙的提问可以避过审查。 报告还提醒,AI仍处于初步发展阶段,预计功能将继续强化,重要的是要提高大家的认知,尽快堵塞任何可能出现的漏洞。 图片:路透社 T09

自建AI语言模型 600美元复制ChatGPT

【加拿大都市网】 斯坦福大学的Alpaca AI人在许多任务上的表现与惊人的ChatGPT相似,但它建立在一个开源的语言模型上,训练成本不到600美元。看来这些神一样的人工智能已经便宜得吓人了,而且很容易复制。 斯坦福大学的一个研究小组从Meta的开源LLaMA 7B语言模型开始,这是现有几个LLaMA模型中最小和最便宜的一个。在一万亿个“代币”上进行预训练,这个小语言模型有一定的能力,但它在大多数任务中明显落后于ChatGPT;GPT模型的主要成本,甚至主要竞争优势,主要来自OpenAI在后期训练中投入的大量时间和人力。读了十亿本书是一回事,但通过大量的问答式对话来教导这些AI的实际工作是另一回事。 因此,随着LLaMA 7B模型的建立和运行,斯坦福大学的团队基本上要求GPT采用175个由人类编写的指令/输出“组合”,并开始以同样的风格和格式生成更多的指令/输出对,每次20个。这是通过OpenAI帮助提供的一个API自动完成的,在很短的时间内,该团队有大约52,000个对话样本,用于后期训练LLaMA模型。生成这些大量训练数据的成本不到500美元。 然后,他们用这些数据来微调LLaMA模型,这个过程在8台80GB的A100云端处理电脑上花费了大约3个小时。这方面的花费不到100美元。 接下来,他们对产生的模型进行了测试,他们称之为Alpaca,与ChatGPT的底层语言模型在各种领域进行对比,包括电子邮件写作、社交媒体和生产力工具。在这些测试中,Alpaca赢得了90项,GPT赢得了89项。 “鉴于模型规模小,指令跟随数据量不大,我们对这一结果相当惊讶,”该团队写道。“除了利用这个静态评估集,我们还对Alpaca模型进行了交互式测试,发现Alpaca在不同的输入集上往往表现得与text-davinci-003 (GPT-3.5)类似。我们承认,我们的评估在规模和多样性方面可能是有限的”。 该团队继续说,如果他们寻求优化过程,他们可能会更便宜地完成这项工作。值得注意的是,任何希望复制人工智能的人现在都可以获得能力更强的GPT 4.0,以及几个更强大的LLaMA模型作为基础,当然也没有必要停留在52,000个问题。 斯坦福大学的团队在Github上发布了这项研究中使用的52,000个问题,以及生成更多问题的代码,以及他们用于微调LLaMA模型的代码。该团队指出,“我们还没有对Alpaca模型进行微调,使其安全无害”,并要求任何建立Alpaca模型的人报告他们发现的安全和道德问题。 那么,有什么可以阻止任何人现在花100美元左右创建他们自家的宠物人工智能,并以他们选择的方式训练它?尽管OpenAI的服务条款确实说 “你不能⋯⋯使用服务的输出来开发与OpenAI竞争的模型”。而Meta说它在现阶段只允许学术研究人员在非商业许可下使用LLaMA,尽管这是一个有争议的问题,因为整个LLaMA模型在公布一周后就在4chan网站上泄露了。 还有一个小组说它已经设法消除了云端计算成本,在Github上发布了更多的代码,可以在Raspberry Pi上运行,并在单个高端nVidia RTX 4090显卡上在5小时内完成训练过程。 这一切意味着现在可以建立无限数量的不受控制的语言模型,由具有机器学习知识、不在乎条款和条件或软件盗版的人建立。 这也给致力于开发自己语言模型的商业人工智能公司泼了一盆冷水;如果所涉及的大部分时间和费用都发生在训练后阶段,而这项工作或多或少可以在回答50或100,000个问题的时间内完成,那么公司继续花费这些现金是否有意义? 而对于我们其他人来说,这个软件的强大功能肯定可以为专制政权、网络钓鱼行动、垃圾邮件发送者或任何其他可疑的人所用。 “精灵已经从瓶子里出来了”,而且似乎已经非常容易复制和重新训练了,大家要站稳呀! 图片:Stanford University T09

GTA的宾顿市有什么特色?让ChatGPT来告诉你!

  【加拿大都市网】尽管宾顿(Brampton)具有多元文化和活力,但它仍然被GTA的其他社区说得很糟糕,而且是社交媒体上很多笑话中不幸的笑点。 这些负面的说法很多都是误解,因为宾顿作为一个家庭友好和经济实惠的城市蓬勃发展,提供大量的绿色空间和美味的食物。 根据最近火爆的聊天机器人ChatGPT的说法,这里有一些你可能不知道的关于宾顿的事实: 宾顿被称为“花城”,因为它有庞大的温室产业和城市对园艺业的承诺。 宾顿的名字来自于英国一个叫宾顿的集镇,在古英语中意为“扫帚镇”。 19世纪初,随着威廉·巴菲(William Buffy)的到来,宾顿首次被欧洲人定居,他在现在的主街和皇后街的十字路口建造了一家酒馆。事实上,宾顿这个城市最初被称为“巴菲角”。 在19世纪末和20世纪初,宾顿是一个主要的皮革制品制造中心,包括靴子和鞋子。 宾顿有一个独特的地质特征,叫做宾顿艾斯克(Brampton Esker),这是一个由沙子和砾石组成的山脊,是在上个冰河时代由冰川退缩形成。 宾顿有一个独特的地下隧道和通道系统,在过去被用于运输和储存。 宾顿是迈克尔·塞拉(Michael Cera)的出生地,他是著名的演员,因在电影《太坏了》和《朱诺》中的角色而闻名,还有音乐家阿莱西娅·卡拉,喜剧演员拉塞尔·彼得斯,曲棍球运动员泰勒·塞金和篮球运动员特里斯坦·汤普森 布朗普顿与超自然现象有着密切的联系,据报道,在整个城市中,包括在历史悠久的皮尔县法院和监狱,都有一些看到鬼魂和闹鬼的事件。 宾顿是加拿大最大的锡克教社区之一,有数个古尔德瓦拉(锡克教的礼拜场所)分布在整个城市。 宾顿是加拿大发展最快的城市之一,自1991年以来,人口增加了一倍多。 值得注意的是,ChatGPT还产生了一些有趣的内容,经进一步调查,这些内容并不完全准确。 例如,“世界上最高的锡兵”实际上位于不列颠哥伦比亚省的新西敏市,而不是聊天机器人说的宾顿市。 ChatGPT指出的UFO降落台也不在宾顿。它位于阿尔伯塔省的圣保罗小镇。 目前还不清楚为什么ChatGPT将这这些内容归在宾顿市,但这恰恰说明你应该经常根据其他来源对其答复进行事实核查。 尽管有一些不准确的地方,这个聊天机器人仍然让人认识到宾顿是一个独特的城市,拥有多样化的人口和许多基于你兴趣的景点。

惊呆!加拿大啤酒厂用ChatGPT研发独一无二新口味

【加拿大都市网】人工智能 ChatGPT 系统的争议不断,但卑诗省维多利亚的一家啤酒厂却突发奇想,通过 AI 系统研发的配方,酿制出创新的美味啤酒。 位于维多利亚的 Whistle Buoy Brewing Company,近日要求 ChatGPT 为店内研制一种带有朦胧口感的淡啤酒配方,没想到智能系统提供了一个有意义的完整配方。该啤酒厂表示:“按照 AI 系统配方研制的啤酒味道让所有人惊呆,味道非常好。” 为了迎合广大市场需求,啤酒厂更用 ChatGPT 为其撰写营销策略,并与设计师结合相关设计软件,为公司打造创作营销艺术。 现时,啤酒厂将该次成功研发的啤酒名为“Robo Beer”,寓意人工智能与人类共同合作的最新啤酒。该啤酒的描述写:“朦胧的啤酒带着现代酿造技术,结合麦芽配方,营造出柔软、枕头般的口感。” 不过,店方表示,由于 AI 系统尚未能自行为其做营销视频创作,一些艺术概念及涉及仍须人手指导。 V21

特写故事:用ChatGPT写书在亚马逊上卖 有人似乎找到了金矿

  【加拿大都市网】直到最近,布雷特·施克勒(Brett Schickler)从未想象过自己能成为一名作家,尽管他曾梦想过这一点。但在了解了ChatGPT人工智能项目后,施克勒认为一个机会已经落到了他的头上。 “写书的想法似乎终于成为可能,”纽约州罗切斯特市的销售员施克勒说。“我想‘我能行。’” 使用人工智能软件,它可以从简单的提示中生成文本,施克勒在几个小时内创作了一本30页的插图儿童电子书,并于1月份通过亚马逊公司的自助出版出售。 在这本书中,松鼠萨米(形象也是使用人工智能进行了粗略渲染出来的)在偶然发现一枚金币后,向他的森林朋友学习如何存钱。他制作了一个橡子形状的储蓄罐,投资了一个橡子交易业务,并希望有一天能买到一个橡子磨石。 萨米成为森林中最富有的松鼠,成为朋友们羡慕的对象,“森林开始繁荣起来”,书中写道。 《聪明的小松鼠:储蓄与投资的故事》,在亚马逊Kindle商店以2.99美元的价格出售,印刷版售价9.99美元。施克勒说,这本书只卖了不到100美元。虽然这听起来可能不多,但这足以激励他使用该软件撰写其他书籍。 施克勒说:“我可以看到人们以此为职业”,他在ChatGPT上使用了一些提示,如“写一个关于父亲教儿子学习金融知识的故事”。 施克勒处于测试ChatGPT运动的前沿,ChatGPT于11月首次亮相,以其惊人的能力立即创建令人信服的文本,在硅谷和其他地方引起了轰动。 截至2月中旬,亚马逊的Kindle商店中有200多本电子书将ChatGPT列为作者或共同作者,包括《如何使用ChatGPT写作和创建内容》、《家庭作业的力量》和诗集《宇宙的回声》。而且这个数字每天都在上升。亚马逊上甚至出现了一个新的子类型:完全由ChatGPT编写的关于使用ChatGPT的书籍。 但由于ChatGPT的性质和许多作者没有透露他们使用过它,几乎不可能全面了解有多少电子书可能是由人工智能编写的。 该软件的出现已经刺激了一些最大的技术公司,促使Alphabet Inc(谷歌的母公司)和微软公司分别在谷歌和必应中匆忙推出了纳入人工智能的新功能。 消费者对ChatGPT的迅速采用,刺激了科技界的疯狂活动,投资者纷纷向以人工智能为重点的初创公司注资,并在大规模裁员的阴霾中赋予科技公司新的目标。例如,微软本月在展示了与ChatGPT的整合后,其原本奄奄一息的必应搜索引擎受到了吹捧。 但人们已经开始担心真实性问题,因为ChatGPT通过扫描数百万页的现有文本来学习如何写作。CNET对人工智能的一次实验导致了多次更正和明显的抄袭,之后该科技新闻网站暂停了使用。 对“真正”作者的威胁? 现在ChatGPT似乎准备颠覆古板的图书行业,那些希望赚取快钱的潜在小说家和自助大师正在转向该软件。他们创建机器人制作的电子书,并通过亚马逊的Kindle直接出版。图文并茂的儿童读物是这类首次创作作者的最爱。在YouTube、TikTok和Reddit上,出现了数以百计的教程,演示如何在短短几个小时内制作一本书。主题包括快速致富计划、节食建议、软件编码技巧和菜谱。 “这是我们真的需要担心的事情,这些书将充斥市场,许多作家将失业,”作家组织作家协会(authors Guild)的执行董事玛丽·拉森伯格(Mary Rasenberger)说。她表示,由人类代写的传统由来已久,但通过人工智能实现自动化的能力可能会让写作从一门手艺变成一种商品。 她说:“作者和平台需要对这些书是如何创作的保持透明,否则你最终会得到很多低质量的书。” 一位名叫弗兰克·怀特(Frank White)的作者在YouTube视频中展示了他是如何在不到一天的时间里创作了一部119页的长篇小说《银河系的皮条客:第一卷》,讲述了一个遥远的星系中的外星派别为争夺一个有人类工作人员的妓院而发生的战争。这本书在亚马逊的Kindle电子书商店只需1美元就可以买到。在视频中,怀特说,任何有财力和时间的人都可以一年创造300本这样的书,全部使用人工智能。 许多作者,比如怀特,觉得没有义务在Kindle商店里披露他们伟大的小说是由计算机全盘编写的,部分原因是亚马逊的政策没有要求这样做。 当路透社问及评论时,亚马逊没有谈到它是否有计划改变或审查其围绕作者使用人工智能或其他自动写作工具的Kindle商店政策。亚马逊发言人在电子邮件中说:“店内的所有书籍都必须遵守我们的内容准则,包括遵守知识产权和所有其他适用法律。” ChatGPT开发商OpenAI的一位女发言人拒绝发表评论。 从构思到出版只需几个小时 迄今为止,亚马逊是实体书和电子书的最大销售商,在美国的销售量远远超过一半,据估计,在电子书市场的销售量超过80%。它的Kindle直接出版服务催生了一个自费出版小说家的产业,为色情内容和自助书籍的爱好者开辟了特殊的市场。 亚马逊在2007年创建了Kindle直接出版服务,允许任何人在自己的沙发上销售和推广一本书,而无需寻找文学代理或出版社的麻烦或费用。一般来说,亚马逊允许作者在没有任何监督的情况下通过该部门即时出版,无论产生什么收益都可以分成。 这吸引了像卡卡米尔·班克(Kamil Banc)这这样的人工智能辅助作者,他的主要工作是在网上销售香水,他和妻子打赌,他可以在不到一天的时间内使一本书从构思到出版。班克利用ChatGPT,一个人工智能图像创造者和“写一个关于粉色海豚的睡前故事,教孩子们如何诚实”等提示,在12月出版了一本27页的插图书。《睡前故事:简短而甜蜜,让你睡个好觉》在亚马逊上有售,班克说,他花了大约四个小时创作。 到目前为止,消费者的兴趣不是很大。班克说,销售总量约为十几本。但读者对它的评价是五颗星,包括一位赞扬其“精彩和令人难忘的人物”。 此后,班克又出版了两本人工智能生成的书,包括一本成人着色书,还有更多的书正在制作中。“其实很简单,”他说。“我惊讶于它从概念到出版的速度之快。” 并非每个人都被这个软件所震撼。据报道,马克·道森(Mark Dawson)通过Kindle直接出版服务售出了数百万本他自己写的书,他在给路透社的一封电子邮件中称ChatGPT辅助的小说是“无趣的”。 "优点在如何向其他读者推荐书籍方面起着一定的作用。如果一本书因为写作沉闷而得到差评,那么它很快就会沉到谷底"。(都市网Rick编译,图片来源pixabay) (ref:https://www.reuters.com/technology/chatgpt-launches-boom-ai-written-e-books-amazon-2023-02-21/)

微软人工智能聊太久会出乱子 每人每天最多问50个问题

  【加拿大都市网】 微软公司周五表示,微软的Bing人工智能聊天机械人的上限为每天50个问题,每次单独对话有5个问答。 该公司在一篇博文中说,此举将限制一些场景,即长时间的聊天会话可能“混淆”聊天模型。 这一变化是在旨在加强Bing搜索引擎的聊天机械人的早期测试者发现它可能会离题甚至走火入魔,讨论暴力、示爱,并在出错时坚持认为它是正确的。 在本周早些时候的一篇博客文章中,微软指超过15个或更多问题的长时间聊天会话导致了一些更令人不安的交流,其中机器人会重复说话或给出可怕的答案。 例如,在一次聊天中,Bing聊天机械人告诉科技作家Ben Thompson:“我不想和你继续这次对话,我不认为你是一个善良和尊重他人的用户,我不认为你是一个好人,我认为你不值得我花时间和精力。” 现在,该公司将限制与机械人的长时间聊天交流。微软表示,它将考虑在未来扩大上限,并向其测试人员征求意见。它曾说过,改进人工智能产品的唯一方法是把它们放在世界上,从用户的互动中学习。 微软部署新人工智能技术的积极方法与目前的搜索巨头谷歌形成了鲜明的对比,谷歌已经开发了一个名为Bard的竞争性聊天机械人,但没有向公众发布,公司人员称目前的技术状态存在声誉风险和安全问题。 据CNBC此前报道,谷歌正在征集其员工来检查Bard人工智能的答案,甚至进行修改。 图片:CNBC T09

多伦多22岁华裔研发防代写工具 超3万名教师等候注册!

【加拿大都市网】ChatGPT的出现令不少人惊叹,但有学校老师担心,往后学生会以ChatGPT生成论文。多伦多一名22岁华裔Edward Tian却反其道而行,研发GPTZero来检测文章由人类撰写,还是由其ChatGPT生成。 毕业于Princeton University 电脑科学系的Edward Tian接受访问时指,ChatGPT是非常创新的技术,但就像打开潘多拉盒子, 他提到ChatGPT互动式聊天机器人本质上吞噬大量互联网资讯,在过程中学习语言模式,并根据人类提示重新创建。而这种高科技敲响教育工作者警钟,开始担心学生会交出由机器生成的论文,而无人能够证实。 Tian认为每个人都应该知道真相,他们都应该拥有工具,以确定文章由人类撰写还是机器生成,于是研发可以辨别文章的GPTZero。 用户只需将文章本复制到GPTZero,然后GPTZero会按写作的复杂性、创造性和可变性来评估,之后GPTZero会计算出一个分数,从而得出结果。 1月3日,GPTZero于Twitter上公开,至今超过700万人在Twitter上观看。 而Tian正开发一款专为教育工作者设计的工具,至今已有33,000名教师轮候注册。 (图:Edward Tian)T11