问答题

    2008年,斯坦福大学的计算机科学家设计出了第一个专家系统:1982年,加州理工学院物理学家提出了新的神经网络模型;1997年,IBM“深蓝”电脑线路国际教程世界观军卡斯帕罗夫;2011年,IBM超级计算机“沃森”在美国电视答题节目中战胜两种人类冠军;2013年,机器在人脸识别上超过人类;仅一年后,机器人在物体识别上也战胜……未来人工智能继续超越人类的可能性很高。在人工智能应用前景充满无限可能的情况下,其潜在风险也引发了广泛讨论。2016年2月,在美国加州发生了一起死人驾驶汽车因躲避路上障碍物而撞上公交车的交通事故。这凸显出人中智能设备在应对人类社会各种场景时面临的挑战,人们还担心人工智能技术成熟后的问题,比如将机器人用于战争是否会带来像核武器一样的后果。有学者表示,人机对弈是人类思考自身作用契机。人工智能的目的是帮助人类,创造出比李世石更优秀的棋手应该是人类的胜利,也有学者认为,在面对复杂的伦理问题时,人工智能技术可能会陷入不可预知的选择困境,著名物理学家霍金也发出警告;“我不认为人工智能的进步一定会是良性的。”德国人工智能研究所柏林分析所长汉斯·乌斯克莱特强调说,人工智能的研究方向不是要取代人类,而是要与人类互补,增强人类的能力,人工智能不会取代人类,因为只有人类才具有创造力和目标,而机器只关注如何解决眼前遇到的问题。要让人工智能避免犯下道德层面的错误,关键在于人类自己,在美国《连线》杂志创始主编凯文·凯利看来,每个发明都不可避免带来新问题,但同时也会带来新的解决方案,解决这些问题的方式不是减少技术的使用,而是通过改进技术来提供解决方案,他认为,即使新的技术发展带来的49%是问题,但它首先带来了51%的好处,这正是人类进步的动力。从这个意义上讲,“阿尔法围棋”和李世石无论谁胜谁败,人类都是最后的赢家,总之,用好人工智能,关键还在人类自身。从真理和价值辩证关系看,为何人们会对人工智能技术产生多种多样的看法与评价?


    火星搜题