人工智能引发的伦理和哲学问题
通过以上的篇幅我们大致了解了人工智能是什么,它的界限在哪里,我们人类对人工智能的研究又到了什么阶段。其中的核心就是,在让人工智能具有逻辑推演能力,甚至是类似于人类的非理性思维之后,下一步就要触碰到一个最核心的问题,那就是让人工智能具有自我意识。
现在的人工智能在理性思维上的成果突飞猛进,非理性思维构架也开始初步实现,但无论这些思维有多么的接近人类思维,人工智能与人,甚至是动物之间还有一个巨大的不同,那就是人工智能不具备自我意识,也就是他们生来为人服务,并不知道“我”的存在。
人工智能的哲学问题
这也是人工智能在发展道路上遭遇的最大的伦理问题,即是否要继续探索下去,让人工智能具有自我意识,还是仅仅将其停留在一个服务型工具上。
一旦人工智能具有自我意识,性质就发生了巨大的变化,人类是否有权力驱使一个具有自我意识,而且是具有高度智慧的个体;同时具有自我意识之后的人工智能油会做出什么样的反应?这听上去像科幻小说,但确实是科研领域已经遇到的问题和挑战。
这个问题其实人类早就遇到过,在克隆技术上这仍然是一个重要的话题。根据人类目前掌握的技术,实现克隆人并不是一个很遥远的目标,但人类是否能够跨出这一步,最重要还是来自伦理和哲学的问题。
目前看来,科学家们仍然倾向于将人工智能仅仅放在实验室内,而不去触碰那个敏感的问题,虽然离真正遇到这个问题还很远,但如何保证不让人类的“好奇心害死猫”,这是一个很严肃的话题。