成长值: 18640
|
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
6 Q6 r) m& U, h9 M+ k$ L
( s( @7 ?7 u: N" U) q" { U3月14日,据媒体报道,英国著名物理学家史蒂芬·霍金去世,享年76岁,作为世界天文物理学知名科学家,以及现代最伟大的物理学家之一,霍金曾多次就人类最终命运提出自己的见解,2011年,史蒂芬·霍金在一次演讲中就人类科技发展的弊端进行了讨论,这可能是他他一生中最重要的五个预言之一,霍金认为人类如果不能控制人工智能技术的发展,未来可能将反过来被“人工智能”所击败,未来的战争可能是人和“人”之间的战争,或者说人和人工智能自我意识的战争,一旦人类失去对人工智能的自我意识进行控制,人类反而会被自己的创造品所吞噬,这就是所谓的“人工智能困局”。军事专家陈忠告诉记者,当“人工智能”越来类人且其自主化能力的提升,如何进行善恶、是非判断成为一个严重的问题,是否执行人类的命令为何来纠错都成为“人工智能”技术发展未来的隐患。) p5 ~4 i! u& h2 v' i: U2 E2 s
, j* T$ E$ @0 `% p( I5 i5 y1 m) H4 r' `, O( v
4 Z& j! D/ V: { 2017年3月,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。霍金认为,自从人类文明形成以来,来自生存能力优势群体的侵略就一直存在,强盛国家消灭弱小国家,强大且生存力强的生物捕食弱小生物,为了生存,生物和生物群体的进攻性从而停止,而人工智能进一步发展便可能具备这种优势,即便人工智能自己没有背叛我们,但是人类自身却很可能会通过人工智能,来进行核战争或生物战争从而摧毁我们的世界,因此人类需要利用逻辑和理性去控制未来可能出现的威胁。上世纪80年代的科幻电影《终结者》中,人类制 造了一整套人工智能自动核武器防御“天网”系统,但“天网”系统最终发动了核战争消灭了大部分人类,人工智能通过控制工厂生产只能机器人,对仅存的人类进行“围剿”,这是人工智能对人类赤裸裸的“背叛”,这部电影是一个恐怖的未来预言。
4 ]3 j' {% q3 X2 ]6 r/ R, M3 I- [. |* u. D
/ g2 J# T- r% z% K# N7 B- u6 S
. U5 D% Z8 ^ z& _ 军事专家告诉记者,人工智能技术已经开始深入未来武器发展和军事作战系统构建中去,目前,人类制 造的最新型防空系统和反导系统,都存在人工智能自我决策机制的存在,例如在以色列“箭3”反导系统中,反导雷达发现目标后,对目标进行确认防空系统可以自主进行射击拦截,当然这个过程中,操作人员可以进行人工干预,但问题是他不听话怎么办?近年来,人工智能在逻辑能力上已经显著超越了人类,著名的“阿尔法狗”就是其中一个例子,军事专家陈忠认为,“阿尔法狗”只代表了人工智能在基于神经网络的机器深度学习、高性能计算和大数据技术等领域的最新成就,属弱人工智能。但有军事专家预言,未来强人工智能的运用就会如同5年前大数据的进入一样,带来巨大的改变。在竞争与博弈更为激烈的军事领域,人工智能自上个世纪随着计算机的出现已经越来越多地走向战场,推动着智能化战争时代的来临。/ v- I' ?6 ^/ k
9 _+ A) U0 B4 S
1 l7 i% E# ]& Q7 d4 j# j9 V, y+ {* x6 T+ O0 k* i. l
人工智能的自我学习能力很强,但人工智能最严重的问题是其没有伦理道德制约,“杀人”只是一个指令,善良与罪恶、正义与否都不在现有人工智能的考虑范围内,霍金的对人工智能的疑虑恰恰就在于此,众所周知,人工智能技术的核心命意,乃是通过对于计算机的恰当编程,以使得相关设备能够在行为层面上表现出与人类类似的“智能性”。尽管关于什么样的行为可以被判为“智能的”,学界尚有不少的争议,但是一般人都不会反对这么一条评判意见:理想中的人工智能产品,应当能够在尽量减少人工干预的情况下,在相关工作环境中,按照用户的要求自主地完成各种任务。很显然,人工智能在多大程度上被人工干预可能是一个很大的问题,因为这个自主是自己判断对与错,杀与不杀,开火还是不开火呢?还是等待操作人员按动YES或者NO的选择框呢?
0 a ]& O& F" `* I T9 X# _ i1 i7 m6 ]4 |
$ c" u7 U1 g0 F8 Y
. Z' g: t4 Z# p& N, P0 X) Q4 k( ?( j 军事专家告诉记者,从伦理学的角度,军事冲突的语言即关于辩护的语言,所谓辩护就是指你有没有充足的理由发动夺取人生命的战争,理由这个词非常玄妙,人类可以创造出很多理由发动战争,而且理由都很冠名堂皇,但人工智能能够明白吗?一些军事学者认为,军事冲突导致人员的死亡以及财产的受损,并造成各种形式的可以想象的大量伤害。不给理由就去做这些事情乃是疯狂的。正所谓出师有名,但人工智能到底需要不需要了解这些东西呢,如果是自主化的无人机或无人战车,他在射击之前还要请示一下是不是开火,显然那肯定是不行的,要不然搞人工智能又是为了做什么?人类也不可能期盼人工智能能够明白这其中道德上的用心良苦吧。
; Y) u! L+ ]7 y* S' p5 N- Y K+ U8 R: ~9 {, V) m6 c
5 j& \$ I. _$ O) B- Z8 g( V( y4 L" }/ S( S3 o- r5 v
不过,即使你有了理由去进行杀伤性作战行动,如果战争中制服或杀伤人员目标,可以通过更少的人员与财产损失来达到,那么,相关的军事行动还是无法得到辩护,然而,人类总是有理由发动战争,而军用人工智能系统的介入,又会在多大问题上会改变此类问题的性质呢?我们知道,“机器人战士”或军用人工智能毕竟还是人类生产或设计的产物,我们也完全不能够设想这些人工智能,能在“其设计者不知其如何运作”的前提下进行作战行动,那么作为人类的设计者真的明白自己在做什么吗?
+ C+ A4 t+ x" n: g, B) F
2 p% q9 z+ \. T) b1 V1 j& ~; L r6 n# `; r7 J
6 q2 }# ?9 ^, z( y7 \2 I+ P
/ ~' |% ?" r+ k' Q8 Q$ {0 G) o1 o/ T! g# V* s9 P. m' j
* Q# T5 Z- L3 f5 l( C, j6 H- ]3 s3 K |
评分
-
参与人数 5 | 经验 +50 |
津贴 +130 |
收起
理由
|
山里兵
| |
+ 30 |
谢谢发表精彩内容,论坛有您真好! |
沈阳第二故乡
| + 50 |
+ 50 |
谢谢精彩回复,论坛有您真好! |
俺是亚马逊人
| |
+ 10 |
谢谢发表精彩内容,论坛有您真好! |
81520
| |
+ 10 |
感谢您为论坛的繁荣做出贡献! |
自主快乐嗨
| |
+ 30 |
谢谢发表精彩内容,论坛有您真好! |
查看全部评分
|