着色剂厂家
免费服务热线

Free service

hotline

010-00000000
着色剂厂家
热门搜索:
行业资讯
当前位置:首页 > 行业资讯

智能化最难的不是技术,而是它!

发布时间:2022-06-13 04:22:27 阅读: 来源:着色剂厂家
智能化最难的不是技术,而是它!

供给侧改革大潮流下,各领域的企业都在为自己的产品戴上了智能化的高帽子,小到扫地机器人,大到无人驾驶汽车。智能化也带动着制造业、医疗产业、信息技术产业等实现转型升级。但在产品智能化过程中,有一个避不开的难题伦理设计。技术难题总有攻克的一天,但伦理难题,一直以来似乎也没有很好的解决办法。相信看过《终结者》的观众都对影片中拥有自我意识的机器人印象非常深刻。本是在服务人类的初衷下产生的机器人在拥有独立意识后,纷纷反水,对人类发起了大肆进攻。除了《终结者》系列,《黑客帝国》等影片也在讲述着类似的故事,反映着一个共同的心理人们在享受着智能化带来的便利时,也怀揣着隐忧。近日,英国标准协会发布了全球首个关于机器人伦理设计的规范指南。其中对机器人的欺诈问题、成瘾现象、伤害行为等作出规范。人们在尝试将机器人,甚至可以说所有的智能化产品纳入人类社会的道德系统中去。毋庸置疑,这有相当大的难度。但智能化的伦理设计的最大难关还不是人们愿不愿意按照规定设计,而是不知道怎么设计。

灵活性的质疑:电脑能替代人脑吗?在大部分的科幻电影中,智能化设备的终极目标是完全的电脑代替人脑。而设备实现智能化操作是通过预先设定程序实现的。为了不与社会伦理相违背,企业在生产时如何进行功能预置成为难题。以无人驾驶车辆为例。即使无人驾驶车辆的初衷是解放人的大脑,同时减少交通事故,但并不意味着它一定没有风险。那么紧急避险设置如何进行?网上有人提出这样的问题:如果在行驶过程中,前方出现一个物体,不影响行驶的情况下要不要停?逢物不停,或许下一秒会突然有个孩子窜出来捡东西;逢物必停,则严重影响用户的驾驶体验。还有这样的疑惑:当前方行驶着一辆摩托车和一辆轿车,此时车刹车系统失灵,不可避免地会撞上一辆车,那车辆在智能化预置时怎样操作?虽说人脑在处理时也不一定能规避这些问题,但企业在进行智能化产品的量产时,如果不考虑好的话必然会招致社会舆论的压力和道德的拷问,埋藏祸端,限制企业发展。如何才能将风险和伤害降到最低,如何更顺应人们的心理需求,是企业进行智能化产品伦理设计的基础。法律层面的质疑:有些甚至连合法身份都没有法律在这一领域的态度大多是迟缓而谨慎的。在某些智能化产品推广过程中,就连获得合法身份都是企业需要突破的难关。这种滞后也是可以理解的。平衡车、无人机……智能化产品的风靡就好比双刃剑。近几年,无人机以空中交警的身份在交通执法中出现的频率越来越高。但除了利好的一面,无人机还面临着坠落伤人、偷窥隐私等质疑。无人机的安全性从生产到监管,还没有达到百无一漏的地步。而且,机器人的深度学习远超过我们的预计。国外研究发现,当机器人执行特定任务时,并不是完全按照事先编写好的程式,而是采用不同的方式来实现指令,逐渐形成策略。也就是说,在后智能化时代,机器人掌握一定的学习能力不是痴人说梦。事实上,如今机器人的某些深度学习能力已进入成熟阶段,例如图像识别、语音识别等。据了解,国内有家公司在制造机器人时,刻意地限制了其自我学习能力,还限制了影像资料的保存时间,就是为了避免泄露用户的隐私信息。那么当机器人有违法行为时,谁来埋单?所有者、生产厂商还是机器人?按照英国标准协会机器人的伦理设计规范来说,需要负责的是人而非机器人。但是,有时这种责任是难以界定的。卫报之前报道过一件事,用户给机器人一些钱用于购物,但最终机器人买到了护照、兴奋剂、可偷拍的棒球帽等违法物品。责任在谁,很难明确区分。智能化产品的伦理设计,还有很长的路要走。

教育培训长页
卫生医疗长页