朱颜辞镜推荐 | 仿人类三维电子皮肤问世

来源:光明日报 2024年6月6日 侵删

记者从清华大学获悉,该校航天航空学院、柔性电子技术实验室张一慧教授课题组在国际上首次研制出具有仿生三维架构的新型电子皮肤,可在物理层面实现对压力、摩擦力和应变三种力学信号的同步解码和感知,对压力位置的感知分辨率约为0.1毫米,接近于真实皮肤。相关研究成果日前在国际学术期刊《科学》发表

复刻人类皮肤源于自然演化的高级感知功能,是电子皮肤、机器人等前沿科学技术领域长期追求的目标。然而目前,尚未有电子皮肤能够复现人体皮肤中机械感受器的细微观三维空间分布形式,进而像皮肤一样,在物理层面实现压力、剪切力、应变等多种机械信号的同步解耦感知。

据悉,这一新型电子皮肤受人类皮肤中机械感受器空间分布形式的启发,其结构中的力与应变传感器的三维分布,效仿了人类皮肤中梅克尔细胞和鲁菲尼氏小体的空间分布形式,使该器件能够从物理层面解耦地测量压力、剪切力和应变。与皮肤结构类似,该三维电子皮肤也由“表皮”“真皮”和“皮下组织”组成,且各层的有效模量与人体皮肤中的对应层相近。传感器及电路主要位于“真皮”层中,其中力传感单元设计为八臂笼状结构,传感器位于笼状结构上部,更靠近电子皮肤表面,因而对外部作用力高度敏感;应变传感器位于器件底部的拱形结构上,在垂直高度上与力传感单元上部的传感器保持一定的距离,因此只对面内的拉伸应变敏感,几乎不会受压力的干扰。

课题组基于这种具有三维架构的电子皮肤,结合深度机器学习算法,研制出只需通过触摸便可同时测量物体模量及局部主曲率的先进触觉系统,展示了其在判别食物新鲜程度等真实场景中的应用。

“电子皮肤实际上是模仿人类皮肤感知功能的一种新型传感器,未来可装于医疗机器人指尖进行早期诊疗,还可像创可贴一样贴在人的皮肤上实时监测血氧等健康数据。”张一慧认为,这款仿生三维电子皮肤为电子皮肤的研发和应用提供了新路径,在工业机器人、生物医疗、人机交互等多方面具有广阔应用前景。(记者 邓晖)

朱颜辞镜推荐 | 这几个“瑕疵”让你识破AI视频

来源: 赵广立 中国科学报 2024-03-01 侵删

“Sora之后,眼见不一定为实了。”

上面这句感慨,恐怕许多人都感同身受。只需输入一段文字描述,Sora就能生成一段长达一分钟、画面逼真、稳定连贯的高清视频。由于画面过于真实,人们仅凭肉眼很难辨别它们竟出自AI之手。

不仅能生成视频,AI还能“魔改”视频。最近,小鹏汽车研究团队提出了一个名为“任何物体在任何场景”的新型通用视频模拟框架,它能无缝地将任何物体插入到现有的动态视频中。同样,肉眼难以分辨。

真假难辨之下,越来越多的人开始担心,AI视频可能引发更多混乱。比如视频证据不再可信:“未来也许你不得不坐在法庭被告席上,观看一段连你自己都不知道的‘作案视频’。”

中国科学院自动化研究所研究员董晶研究的就是图像窜改、深度伪造等人工智能内容安全与对抗技术,她和研究团队的许多成果已应用于多媒体智能鉴伪。面对AI越来越强大的功能,技术上有哪些应对的方法和手段?普通公众面对视频内容时如何“多留几个心眼儿”,以防上当受骗?为此,《中国科学报》采访了董晶。

鉴伪仍处于被动状态

“用魔法打败魔法。”董晶说,目前技术上主要有两类智能检测方法来甄别一段视频是否为AI生成。

一种是基于数据学习的方法。这通常需要提前收集伪造视频和真实视频(最好是配对数据)作为训练数据集,训练出强大的深度网络。只要模型能够“记住”视频帧中的异常或痕迹,例如图像噪点、帧间不连续的运动轨迹等,就能辨别真伪。

董晶说,这种方法较为通用,一旦检测模型参数确定,部署简单、批量检测效果良好。但是,该方法相当依赖训练数据的体量和完备性,对于未知或未训练的数据检测通常会失效。

另一种是基于特定线索的方法。它首先需要定义出视频中一些不合常理或逻辑的视觉“线索”,如光照不一致、人脸视频中应有的活体生理信号、说话人的口型和发音时序不匹配等细节,然后设计相应的算法去提取并定位这些线索,进而取证。这种方法可解释性更好,对视频段的定向检测性能佳,但对数据本身的多样性兼容较差。

被小鹏汽车团队“魔改”的视频,就可以使用这种方法鉴别。董晶说,他们团队做了初步分析后发现,在“塞入”目标物体后,视频/图像不同帧的颜色、纹理会略有变化,“可以此为线索,在收集相关数据后进行训练和检测测试”。

不过,董晶谈到,随着Sora等工具在AI生成视频细节与多元化处理方面的能力增强,生成视频中的显式伪造痕迹会越来越少,仅依赖传统的视频分析与伪造检测方法甄别视频内容的真假,无疑会变得更加困难。

“目前针对性技术的进展还比较初步,仍需加强各类检测技术的开发和优化。”董晶告诉《中国科学报》,当前,技术方面还是沿用常规检测技术思路,因此要在构建新型伪造视频数据集的基础上,提高模型的识别能力。

同时,还需要及时更新已有视频检测模型对新型生成视频算法的兼容性。此外,还可借助数字水印、数字签名、视频检索等技术手段,加强对生成视频数据生命周期的追踪与管理。

“总体而言,目前视频内容鉴伪仍处于相对被动的状态,需要针对不断迭代升级的视频合成新算法去博弈验证。”董晶表示,尽管越来越难,但AI视频在生成过程中仍不可避免地会产生一些特定的模式或痕迹,相关检测技术也会持续利用这些肉眼不易察觉的线索来反制、分析和鉴伪。

她和团队从多个角度提出了新的检测算法。这些算法或基于重建误差,或基于多模态对比学习,或基于伪造特征纯化,均是对“新的特定鉴伪线索挖掘”的不断尝试。

推动建立具有国际共识的标准与规范

为避免引发混乱,“从源头约束”等非技术方案频频被提起。例如,有人提出,可以约定如OpenAl等相关AIGC技术主体,在生成视频之初就埋下AI生成的印记。

董晶对《中国科学报》表示,埋设标记的方法是目前可推荐的应对策略之一,但仍需克服技术上的挑战和限制,如标记的可靠性、隐蔽性、普适性等,并综合考虑隐私和安全等因素。

相对于对视频的被动检测,水印或标记属于主动防御。董晶告诉记者,其团队目前也围绕视觉生成式水印开展了一些研究工作——他们希望在目前生成式模型中加入“鲁棒水印嵌入模块”,为的是让生成的视频本身携带可见或不可见的数字水印。

他们最近还尝试了在真实图像或视频中加入“对抗噪声”,这样一来,生成模型就不能在这些源数据上进行AI合成。

除技术手段之外,董晶还提到一些非技术层面的措施。

“人们需要完善AI数据治理与AI工具使用的监管法规,同时开展科普教育,加强行业规范和公众的相关防范意识等。”董晶说,对于境外AI生成服务主体,如OpenAI,“我们呼吁推动建立具有国际共识的AI数据技术标准与规范,形成共同应对生成视频的合理标记和协同监管方案”。

董晶认为,通过规范Sora这类新型视频生成工具的使用,如对其训练所依赖的源数据集做好管理和收集、规范可能产生敏感或虚假内容的生成视频的输出和安全性测试、规范治理与管控措施,便可降低AI生成视频的滥用风险,“甄别难度不会一直增加”。

增强对虚假视频的“免疫力”

尽管认同“不应将辨别视频是否为AI生成的工作交给公众”,但董晶坚持认为,普通人还是可以在面对视频内容时“多留几个心眼儿”,以防上当受骗。

为此,董晶支了几招。

首先,观察视频细节的逻辑真实性,例如视频中人物动作、背景环境等是否与客观世界相符,人物的生理特征(如牙齿、手指、皮肤纹理、虹膜颜色等)是否符合常理。

她表示,现阶段Sora算法等能否简单便捷地大量生成高质量图像视频还是未知,从已公布的视频片段来看,其在运动上的瑕疵,仔细观察还是能够辨别的。

其次,观察视频的质量和清晰度是否均衡。一般而言,AI生成的视频可能会在画面质量、清晰度等方面存在一些瑕疵,例如图像模糊、画面抖动等。

最后,检查视频的内容逻辑是否合理,比如内容和情节是否合理和连贯。如有疑虑,可进一步查看视频来源、发布平台、评论、格式和制作时间等信息是否可信或一致。还可以借助一些专门用于检测AI生成视频的技术工具和软件交叉验证。

董晶表示,在视频聊天等交互场景下,可以主动要求对方转为侧脸、靠近或远离镜头等加以甄别,因为现有伪造技术对较大运动变化的预测和生成效果相对较差。

除此之外,董晶提醒,在当下复杂的媒介和舆论环境之下,普通公众应积极学习相应知识、适当了解AI生成的机制和破绽,以备不时之需。

“其作用就像定期接种最新流感疫苗一样,能增强对虚假视频的‘免疫力’,变得不再盲从。”董晶对记者说,“虽然我个人认为民众无须承担辨别AI生成内容的工作,但于公于私,提高全民网络素养和安全防范意识,最大限度地避免虚假信息传播、经济诈骗、舆情误导并促进社会信任,是我们每个人应尽的义务。”

 

王奚推荐 | 防范“AI换脸”诈骗 你需要的知识都在这儿了

来源:新华网 2024-02-26 侵删

近年来,随着人工智能技术的进步,一些不法分子开始利用AI技术融合他人面孔和声音,制造非常逼真的合成图像来实施新型网络诈骗,这类骗局常常会在短时间内给被害人造成较大损失。我们应该如何看清这类AI“深度造假”?辨别“AI换脸”有没有什么好方法?我们先来看看近期发生在陕西西安的一起“AI换脸”诈骗案例。

陕西西安财务人员张女士与老板视频通话,老板要求她转账186万元到一个指定账号。

被害人 张女士:老板让把这个款赶紧转过去,这个款非常着急,因为他声音还有视频图像都跟他人长得一样的,所以就更确信这笔款是他说的了,然后我直接就把这笔款转了。

转账之后,张女士按照规定将电子凭证发到了公司财务内部群里,然而出乎意料的是,群里的老板看到信息后,向她询问这笔资金的来由?

被害人 张女士:然后我们就打电话再跟老板去核实,老板说他没有给我发过视频,然后也没有说过这笔转账。

意识到被骗的张女士连忙报警求助,警方立刻对接反诈中心、联系相关银行进行紧急止付,最终保住了大部分被骗资金156万元。

AI“多人换脸”诈骗案 骗走2亿港元

一百多万的现金,对大部分人来说都算是一笔巨款了,好在警方处理及时,挽回了大部分损失,下面我们再来看另一起案例,这起案例的“换脸”技术难度更高,涉案金额也更大。近期, 香港警方也披露了一起AI”多人换脸”诈骗案,涉案金额高达2亿港元。

在该起案件中,一家跨国公司香港分部的职员,受邀参加总部首席财务官发起的多人的视频会议。并按照要求,前后转账多次,将2亿港元转账到5个本地银行账户内,其后向总部查询方知受骗。警方调查得知,这起案件中,所谓的视频会议中,只受害者一人为“真人”,其余所谓参会人员,全部是经过AI换脸后的诈骗人员。

看完这两起案例,您一定有些好奇,AI换脸背后的技术原理到底是什么?在技术层面,它是如何实现人脸的精确识别与替换,创造出逼真效果?我们来听听专家的讲解。

技术上如何实现人脸精确识别与替换

中国网络空间安全协会人工智能安全治理专委会专家 薛智慧:AI换脸过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤。其背后最核心的包括为三个部分,首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。其次,将这些特征与目标人脸图像进行匹配、替换、融合。最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。

快速AI“换脸”仅通过一张照片就可完成

为了了解AI换脸到底能有多么逼真,记者经过与专业技术人员合作,深度体验了AI换脸技术。

技术人员首先用手机给记者拍了一张脸部照片,导入到AI人工智能软件后,让记者惊讶的是,虽然电脑摄像头前的是技术人员,但是输出的确是记者的照片,几乎可以说是“一键换脸”,不需要复杂的环境和解压操作。

更令人惊讶的是,随着技术人员面部表情变化,照片上记者的脸也跟着一起发生了相应变化。

记者:为什么技术人员这张脸动,我的照片会跟着动呢?

中国网络空间安全协会人工智能安全治理专委会专家 薛智慧:首先通过视频的采集,能够把图片里这个人脸的面部追踪定位到,定位到以后第二步他能够做一个人脸的面部特征点的采集和提取,主要就是包括嘴、鼻子跟眼睛相关的这些明显的面部特征。采集到以后, 第三步就跟把这张原始的照片,做一个变换跟融合跟整形。

记者:通过这张照片还可以做到什么?

中国网络空间安全协会人工智能安全治理专委会专家 薛智慧:当前通过这张照片技术人员已经让这张照片能够动起来,活起来了,而如果更进一步的将这张照片存下来,能够存储大量的照片的话。后期可以把这张照片合成一段简短的视频发布出来。

人工智能人脸检测技术主要通过深度学习算法实现,这种技术能够识别出面部特征并对其进行精准的分析。可以将一个人的面部表情从一张照片或视频中提取出来,并将其与另一个人的面部特征进行匹配。专家告诉记者,如果想要实现视频实时通话时采用人工智能AI换脸技术,一张照片是远远不够的,那就需要不同角度的近千张照片的采集。

中国网络空间安全协会人工智能安全治理专委会专家 薛智慧:如果要实时点对点交流的话,需要再采集更多的照片,完了进行深度学习算法模型的训练,训练出来这个模型以后灌到咱们这个视频里去,就可以做实时的变化跟转换了。这种情况下,就可以做到实时的变脸。声音的交流也可以,需要预先采集一些咱们目标人群当中的声音,然后进行模型的训练,能够把目标人群的声音还原出来。

AI生成仿真度极高视频 难度高投入大

专家介绍,以诈骗为目的,实施点对点视频通话,需要AI人工智能生成仿真度极高的视频。想要达到以假乱真效果用于诈骗,难度不小。

中国计算机学会安全专业委员会数字经济与安全工作组成员 方宇:针对诈骗,其实主要是通过点对点的视频通话,这时候如果采用换脸技术和声音合成做实时的换脸诈骗的话,想要完成这些技术操作,就需要投入很强的技术支持。

中国网络空间安全协会人工智能安全治理专委会专家 薛智慧:背后需要有大量的资金的投入,包括图片的采集,包括专业算法的人员等等,需要很长的一个周期,包括一些算力算法。各方面的投入,需要长时间不断地迭代,进行操作,才能达到一个相当逼真的效果,才有可能实现到诈骗的实际效果。

目前AI“换脸”更多应用于娱乐视频录制

除了一些不法分子企图利用AI技术实施诈骗,事实上,近年来,AI技术更多地被应用于短视频的二次创作,属于娱乐性质,越来越多的名人AI换脸视频出现在网络上,不少网友感叹,这类视频“嘴型、手势都对得上,太自然了,差点儿以为是真的。”

比如这款软件,拍下记者面部照片后,就能录制生成出一段记者秒变赛车手的视频。

△网友发布的女士系丝巾原版视频

△需要变换的脸的照片

△生成视频

中国计算机学会安全专业委员会数字经济与安全工作组成员 方宇:AI技术目前我们常看到的主要是短视频换脸,通过做一些特定的动作,跳舞啊等等。这些视频其实看起来是有一些不自然的,本身也是纯属于娱乐性质的换脸。

记者发现在手机应用商城中,有数十款换脸软件,都可以做到换脸的目的。

中国网络空间安全协会人工智能安全治理专委会专家 薛智慧:如果从娱乐大众的角度来说的话,现在市面上也有很多的这些软件和工具,能够达到AI换脸的效果,但是仿真度只有六七分的样子,大众直接就能看出来。但是如果要生成一个诈骗视频来说话,就要生成咱们仿真度极高的这种点对点视频。

AI技术“换脸换声”可能存在法律风险

不过,AI技术也是把“双刃剑”,即使是出于娱乐使用AI换脸、AI换声,也是存在法律风险的。法律专家表示,用AI技术为他人换脸换声甚至翻译成其他语言并发布视频,可能涉嫌侵权,主要有三个方面:

一是涉嫌侵犯著作权,例如相声、小品等都属于《中华人民共和国著作权法》保护的“作品”。例如网友用AI软件将相声、小品等“翻译”成其他语言,需经过著作权人授权,否则就存在侵权问题。

二是涉嫌侵犯肖像权,根据《中华人民共和国民法典》,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。

三是涉嫌侵犯声音权,根据《中华人民共和国民法典》规定,对自然人声音的保护,参照适用肖像权保护的有关规定。也就是说,需要取得声音权人的同意,才能够使用他人的声音。

学会几招 轻易识别AI“换脸换声”

AI换脸这一技术的出现,导致耳听为虚、眼见也不一定为实了。那我们该如何防范呢?专家表示,其实AI人工换脸无论做得多么逼真, 想要识别视频真假还是有一些方法的。

中国计算机学会安全专业委员会数字经济与安全工作组成员 方宇:实际上从我目前看到的深度伪造的实时视频上来看,其实还是可以通过一些方式,去进行一些验证。

那比如说我们可以要求对方在视频对话的时候呢,在脸部的面前通过挥手的方式,去进行一个识别,实时伪造的视频,因为它要对这个视频进行实时的生成和处理和AI的换脸。

那么在挥手的过程中,就会造成这种面部的数据的干扰,最终产生的效果就是我们看到的这样,挥手的过程中,他所伪造的这个人脸会产生一定的抖动或者是一些闪现,或者是一些异常的情况。

第二个就是点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。

提高防范意识 避免个人生物信息泄露

专家表示,除了一些辨别AI换脸诈骗的小诀窍,我们每一个人都应该提高防范意识,在日常生活中也要做好相关防范措施,养成良好的上网习惯。首先应该是做好日常的信息安全的保护,加强对人脸、声纹、指纹等生物特征数据的安全防护:另外做好个人的手机、电脑等终端设备的软硬件的安全管理。第二,不要登录来路不明的网站,以免被病毒侵入。第三,对可能进行声音、图像甚至视频和定位采集的应用,做好授权管理。不给他人收集自己信息的机会,也能在一定程度上让AI换脸诈骗远离自己。

伴随AI技术发展 需要多层面监管规范

除了要提高自我防范意识,如何对AI技术加强监管,也成了越来越多人关注的问题。AI技术本身不是问题,关键是我们要怎么用它?如何形成有效监管?专家介绍,AI技术发展,需要多层面监管规范。

一是在源头端,需要进一步加强公民个人信息保护,尤其是加强对生物特征等隐私信息的技术、司法保护力度。二是在技术层面可以加强管理。例如可以让视频传播网站或者社交软件,使用专业的鉴别软件来鉴定,对AI生成视频,打上不可消除的“AI生成”水印字样。目前,这种数字水印鉴伪技术有待进一步普及。三是在法律制度层面,要进一步完善人工智能等领域相关法律法规。2023年8月15日,我国正式施行《生成式人工智能服务管理暂行办法》。《办法》从多个方面“划下红线”,旨在促进生成式人工智能健康发展和规范应用。 (记者 崔世杰)

朱颜辞镜推荐 | Sora爆火!人工智能将如何影响世界?

来源:中国科技信息 2024-02-20 侵删

清澈灵动的眼眸、活泼可爱的萌宠、神秘莫测的海底世界、熙熙攘攘的夏日街区、充满科技感的魔幻都市……

这段场景逼真、色彩丰富、氛围浓厚的短视频,全部由人工智能系统制作生成。

近日,美国开放人工智能研究中心OpenAI发布首个视频生成模型“Sora”。该模型通过接收文本指令,即可生成60秒的短视频。而一年前,同样是这家研究中心发布的AI语言模型ChatGPT,让文本撰写和创作、检查代码程序等都变得易如反掌。

AI聊天、AI绘画、AI音乐……随着一系列AIGC(利用人工智能技术生成内容)相继问世,让众人直言对现代社会生活产生颠覆性影响的“AI革命”正式来临。

AI究竟有哪些“本领”?为何它每一次迭代升级都能引发全球热议?

生成式AI可将输入内容
变成小说、电影、艺术作品

谷歌公司旗下的人工智能模型“巴德”,可以根据你输入的多个词语迅速生成一篇短篇小说或诗歌。

今年2月,谷歌公司宣布“巴德”更名为“双子座”(Gemini)。这是一款多模态大模型,可理解和组合文本、代码、音频、图像和视频等不同类型的信息。

“巴德”用几个月的时间阅读互联网上几乎所有内容,并开发大语言模型,给出的答案就来自语言模型而并非网络搜索。

DALL-E可以把你输入的任何内容变成艺术作品。

为了训练DALL-E,研发公司为它提供了约6亿张来自互联网的标签图片。通过深度学习,它不仅可以理解单个物体,还可以学习不同物体之间的关系。

利用Runway,你在几秒钟内就能生成平时需要数日才能完成的视觉效果。

该公司创始人巴伦苏埃拉直言,有了生成式AI的加持,未来电影制作的门槛和成本将大大降低。

生物医疗、无人驾驶、气象预报……
AI技术市场规模巨大

除了在艺术创作领域,AI技术在医药领域、城市服务、气象预告的应用也十分值得关注。

1月29日,美国知名企业家马斯克表示,他旗下的脑机接口公司“神经连接”完成首例脑机接口设备人体移植,移植者状态良好。据悉,这项技术是完全可植入的,由电池供电且是无线,全程通过蓝牙连接。

清华大学官网1月30日发布消息,该校医学院脑机接口研究团队与首都医科大学宣武医院联合,于2023年10月成功进行全球首例无线微创脑机接口临床试验

这位因车祸造成脊髓损伤、四肢瘫痪14年的患者,经术后三个月康复训练,已实现自主喝水等脑控功能,抓握准确率超过90%。

虽然脑机接口技术依旧面临许多挑战甚至质疑,但毋庸置疑的是,人工智能在医疗领域,特别是根据医学影像进行诊断方面取得显著成就。目前,美国食品和药物管理局已批准约420种涉及成像的算法,主要用于癌症治疗。这些算法的准确率可达80%至90%

除了医学领域,生成式AI也将更广泛参与到城市公共服务、气象预报实践中。

库马尔是印度的一名卡车司机。他在高速公路跑车时,一个往返就是60小时,长时间疲劳驾驶很容易发生交通事故。如今,他的工作旅途中多了一个“不会说话”的小伙伴,随时提醒他避免疲劳或注意车距。

这是一台集合AI和计算机视觉驱动技术的终端设备。朝向外的摄像头可以测算车辆和其他物体间的距离关系。朝向司机的摄像头则会监控司机的行为和状态,如果司机打电话或者昏昏欲睡,设备就会提醒司机注意正确驾驶。

2023年7月,华为云盘古气象大模型正式上线欧洲中期天气预报官网,让世界看到中国大模型破解气象领域难题的能力。

世界银行估计,改进天气预报和早期预警系统每年不仅可带来价值1620亿美元的收益,还可以挽救约23000人的生命。

此外,目前AI人工智能在促进教育公平,应对老龄化社会方面也发挥着越来越重要的作用并形成巨大的市场规模。据彭博社预计,生成式AI的市场规模将在2032年扩大至1.3万亿美元。

AI生成欺骗性内容干扰选举
或在国家大选期间制造混乱

AI技术带来许多新机遇的同时,也不可避免造成前所未有的挑战和隐患。其中,人工智能生成欺骗性内容干扰选举被认为是全球面临的重要挑战。

当地时间1月23日,2024年美国总统选举共和党党内初选在新罕布什尔州举行。在此之前,很多美国选民都表示,自己接到一通“来自美国总统拜登的电话”。

这通电话以拜登的口头禅“真是一派胡言”开头,建议选民不要给特朗普投票,而是把选票留到11月大选时投给民主党。随后,白宫新闻秘书皮埃尔澄清说,这是一则伪造的电话录音。

分析人士担心,在美国选民容易受到错误信息影响的当下,人工智能可能会在大选期间制造出更多混乱。

据不完全统计,2024年全球将有70多个国家或地区举行重要选举,覆盖超过全球半数人口。在刚闭幕的第60届慕尼黑安全会议上,全球多家科技企业就签署协议,承诺将在2024年打击旨在干扰选举的人工智能滥用行为。

人工智能的应用方式
要充分遵守伦理规则

工业和信息化部赛迪研究院数据显示,2023年,我国生成式人工智能的企业采用率已达15%,市场规模约为14.4万亿元。制造业、零售业、电信行业和医疗健康等四大行业的生成式人工智能技术的采用率均取得较快增长。

专家预测,2035年生成式人工智能有望为全球贡献近90万亿元的经济价值,其中我国将突破30万亿元,占比超过四成。

如何看待未来人工智能的发展?

中国互联网协会副理事长、伏羲智库创始人李晓东分析,人工智能经历六七十年的发展,目前被广泛应用到科技创新、文化产业和工业制造等领域。算力提升和成本降低,也让通用人工智能来到普通百姓的身边。

可以预见在不久的将来,人工智能将无处不在,推动信息化技能从数字化、网络化,全面进入到智能化时代。“很快我们将不再讨论人工智能,因为人工智能已经融入到生活中,无处不在。”李晓东说

从某种意义上讲,对人工智能的利用将会在国家之间、机构之间,甚至包括人与人之间形成新的代差和新的数字鸿沟,并推动人类从农业文明、工业文明走向数字文明。因此能否充分学习和利用人工智能会对人类产生分化,甚至对人类文明产生巨大影响

AI快速发展,监管将面临哪些挑战?

李晓东表示,“数据获取+应用方式”是AI监管的两大问题。合理合法获取数据对人工智能至关重要,人工智能的应用方式也要充分遵守伦理规则。这两个核心问题如果处理不当,将会严重影响人工智能的发展和利用。

从数据获取方面看,采集和获取不仅涉及到数据的产权问题,还涉及到国家安全和个人隐私。如何合理合法获取数据,对于人工智能至关重要

此外,如何有效联通数据故障,促进数据交换共享,提升数据之间的互操作能力也是人工智能的治理重点。否则,没有持续数据支撑的人工智能发展将会严重受损。

从人工智能的应用方式来看,人工智能以前所未有的方式展现其强大的信息处理能力,其本质是提升人类对信息的利用效率和效果。而人类社会有其基于特定国家和文化的法律法规和道德约束,人工智能发展也要充分遵从法律法规和道德伦理。

目前,部分人工智能技术确实对传统道德伦理及既定法律法规产生冲击,并产生全球性新的伦理规范和规则。而在规则规范形成过程中,要保持积极互动跟踪,推动伦理规范和全球规则朝着向上的轨道前行

王奚推荐 | OpenAI新发布首个视频生成模型Sora,三大从业人员或将面临失业

来源:今日头条·小地师 2024-02-17 侵删

轰动全球!马斯克评价它为“人类认赌服输”,周鸿讳说:它的出现,人类实现通用人工智能可能要从10年缩短到了一两年。它究竟是谁?Sora!

就在2024年春节过后,2月16日凌晨,OpenAI发布了首个文生视频模型Sora。Sora究竟是什么东西?

简单的说给Sora一段文字,Sora就能一键生成一段最长可达一分钟的高清视频,包含细致的背景、复杂的多角度镜头,以及富有情感的多个角色,形象逼真,不亚于专业的人工制作团队。

大家看一段视频,猜一下该视频是相机拍摄的吗?视频中有几个狼?

再看看OpenAI官网发布的由Sora生成的其他视频(文首新闻中视频)。

可能大家已经习以为常,不就是个电影片段吗!以詹姆斯·卡梅隆执导的科幻电影《阿凡达》为例,电影总时长是162分钟,其特效的制作由1855人历经十四年才完成。

而随着Sora的逐步完善,以后要想制作类似于《指环王》的电影,可能仅需要一个人在半天的时间内就能完成。那么这1855人以后该何去何从呢?

OpenAI的文生视频模型Sora,将会给电影、视频、广告行业带来革命性改变,今后和视频制作的从业人员大概率将会失业。包括电影、电视剧、动画制作、纪录片、广告、媒体、教育、培训、新闻等行业中从事专业的摄影、剪辑、特效、音效等人员,社会需求会越来越少。

王奚推荐 | 意念控制成真?人类首例脑机接口手术完成

来源:科技狐 2024-01-31 侵删

世界变化太快,一不留神科幻电影又照进现实,“意念控制”成真了?

这次马斯克干脆整了个大的,直接给全球科技界和医学界带来双重震撼。

1 月 30 日,他在个人社交平台上高调宣布,旗下的脑机接口公司已完成首例人类大脑设备植入手术,目前志愿者恢复良好。

那么问题来了,这个“脑机接口”技术到底是什么东东?怎么能让大佬如此兴奋?

通俗易懂的讲,就是通过手术向大脑里植入一块小小的芯片。然后,这芯片就和大脑里的细胞们玩起了“电流接力”,和电子设备之间建立起了一种超酷的“心灵感应”。

也就是说,以后咱们只要稍微动动脑子,就可以实现隔空控制任何外部设备,包括手机、电脑等等。

听起来,是不是超级神奇?

如果这样的话,“意念控制”和“以意驭物”就不再是科幻电影中的情节了。

等到脑机接口技术足够成熟之后,或许未来这一切都可以轻松实现。

到时候小爱、小度和天猫精什么的都弱爆了。早上醒来,只要用脑子想一想,灯就自动开了。

想喝咖啡也不用自己忙活半天了,心里默默下个指令,咖啡机就开始自动工作。

脑洞再开大一点,说不定还可以像《哆啦 A 梦》里那样把知识批量喂入大脑。

那岂不是不用十年寒窗苦读了?未来可以通过脑机接口,进行知识储存读取,共享脑云。

妈妈再也不用担心我学习了!so easy!

想学什么都轻而易举,上到天文,下到地理,现在十几年的时间才能记住的知识,未来可能一瞬间就能拥有。

人和人之间不需要开口说话,甚至连个眼神都不用,就能做到“心有灵犀一点通”。

当然,这么厉害的技术不是用来耍酷的,它有着更广泛的用途,特别是在医学领域。

随着脑机接口技术的深入研究和不断创新,给那些失去四肢的残疾患者带来了新的希望。

比如,通过意志操纵机器,让残障人士开始重新掌控生活。

2014 年巴西世界杯开幕式上,在全世界的见证下,一个瘫痪小伙通过脑机接口踢出了第一球。

正如马斯克设想的那样,他们希望达到的目标是,通过脑机接口技术的应用,让霍金的沟通速度比打字员还要快。

除此之外,还可以用于治疗帕金森病、癫痫、老年痴呆,失明、抑郁症等等。

反正,只要是由神经系统功能失调引起疾病,它几乎都能管。

不得不承认,这技术简直就是改变游戏规则的超级大招,牛到能和人工智能肩并肩。

怪不得那些大佬们都迫不及待地跳进这个圈子,早早开始布局了。

*图源 @动脉橙产业智库

科技狂人马斯克自然是冲在了最前线。

早在 2016 年,他就和一群顶级神经科学家成立了脑机接口研究公司 Neuralink 。在这群科学狂人设想的世界里,人们可以通过心灵感应与他人或机器交流,甚至获得“超能力”。

经过这几年的发展,公司已经有 100 多名员工了,估值高达 50 亿美元。

2019 年,Neuralink 首次宣布在猴子身上测试其设备。

两年后,甚至真的实现了让猴子用意念来玩电子游戏,在当时引发巨大轰动。

因为有一定的风险,经过多次申请,Neuralink 终于在 2023 年 5 月宣布获得了 FDA 批准,进行首次人体临床试验。

没想到这么快就有了初步结果,马斯克还给公司的首个产品取名叫做“心灵感应”。

这件事在全球范围内都引发了巨大讨论,大家对此也褒贬不一。

有人希望明天就能找医生往自己大脑里安一个。

不过也有人表示“吓到了”。

正如 Chatgpt 一样,再厉害的技术也难免会存在争议,脑机接口同样不例外。

最让人担忧就是隐私安全和伦理问题。

由于该技术需要读取脑部数据,因此可能会涉及到用户的隐私问题。试想一下,如果人脑都没有私密性了,岂不是想啥都走光了。

读心术成为现实真是好事吗?

如果这种技术一旦被犯罪组织或者某些利益集团滥用,每个人都可能在不知不觉中被外部控制。

分分钟上演现实版《尤里的复仇》,光想想就觉得不寒而栗。

到时候,人真有可能变成一具行尸走肉,没有灵魂的躯壳。这对于整个人类的生存和发展来说都是极其危险的。

与此同时,不少网友都忍不住发问,收费怎么样?贵吗?

如此先进的技术,往往都是有钱有权的人先享受。有钱人越来越强大,穷人越来越弱小,社会不公平可能会因此加剧。

普通人类在经过机器强化的“超级人类”面前,就像猴子一样无能为力。

我们当然期待看到技术越来越牛,造福人类。同时也希望明确脑机接口技术的边界和规范,制定和完善相应的法律法规来保驾护航,让人类用的安心,用的放心!

朱颜辞镜推荐 | 我国脑机接口技术重大突破!四肢截瘫患者实现脑控喝水

来源: 中工网 2024-01-31 侵删

脑机接口技术重大突破,让四肢截瘫患者实现自主脑控喝水

近日,宣武医院与清华大学团队共同宣布,全球首例通过植入式硬膜外电极脑机接口辅助治疗的四肢截瘫病例,在行为能力康复上取得突破性进展,实现自主脑控喝水。

我国脑机接口技术重大突破!四肢截瘫患者实现脑控喝水

宣武医院赵国光院长团队进行首例植入手术(图源:清华大学医学院)

该患者因车祸引起颈椎处脊髓完全性损伤,此前长期处于四肢瘫痪状态。去年10月24日,宣武医院院长赵国光团队和清华大学教授洪波团队共同完成了无线微创脑机接口NEO临床植入试验。试验将两枚硬币大小的脑机接口处理器植入患者颅骨中,成功采集感觉运动脑区颅内神经信号。居家使用时,体外机隔着头皮给体内机供电,并接收脑内的神经信号,传送到电脑或者手机上,实现脑机接口通信。

经过3个月的居家康复训练,该患者目前可以通过脑电活动驱动气动手套,实现自主喝水等脑控功能,抓握准确率超过90%。此外,患者脊髓损伤临床评分和感觉诱发电位测量情况均有改善。

宣武医院团队介绍,该项目实现两大突破。首先,团队在植入脑机接口的过程中,将内机埋在颅骨内、电极覆盖在硬膜外,这样在保证颅内信号采集质量的同时,还能不破坏神经组织。其次,通过近场无线供电和信号传输,植入颅骨的体内机无需电池驱动。“脑机接口通过记录和解读大脑信号,实现大脑和计算机之间直接通信,可以帮助渐冻症、脊髓损伤、癫痫等脑疾病患者康复,还有望实现脑机融合智能,直接拓展人脑信息处理能力。”