学术资讯南京大学人工智能哲学工作坊顺

北京哪家白癜风医院专业 https://jbk.39.net/yiyuanzaixian/bjzkbdfyy/

5月25-26日,由南京大学哲学系、科学技术与社会研究所主办的“南京大学人工智能哲学工作坊”在南京大学仙林校区哲学系如期召开。来自南开大学、清华大学、中国社科院、中国科学院、武汉大学、浙江大学、上海大学、华南理工大学、西安交大等高校、科研院所的与会代表以及专程从省内外赶来的企业与高校的研究人员近百人参加了本次工作坊。

南京大学哲学系教授、科学技术与社会研究所所长潘天群以及陶孝云研究员、司徒安(AndreaStrollo)博士作为主办方接待了远道而来的参会代表。

潘天群教授代表主办方致欢迎辞。他首先欢迎大家参加这次工作坊。潘天群指出,自年“人工智能”麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”提出以来,经过60多年的发展,人工智能已经成为影响社会、推动人类文明的核心技术。当前人类正在经历着一场人工智能引发的工业革命,人工智能作为一门通用技术,在以前所未有的深度与广度改变着人类社会。潘天群强调,人工智能与哲学密切相关,哲学思考着人类能够做行为的可能边界。图灵年的那篇著名论文“机器能够思维吗”发表于《心灵》杂志;图灵避开了常用的概念分析方法给思维下定义,而给出了行为主义的定义。这便是著名的图灵测试。其实,在图灵之前许多哲学家进行一系列相关的理智历险。早在17世纪霍布斯已经预测了强AI他有一句宣言:推理就是计算;而大约在同一时代,莱布尼茨提出“通用演算”的概念,他认为我们可以用机械演算来解决人们之间的争论。而更早的笛卡尔已经有了类似于图灵测试的想法。哲学不仅思考人们行为的可能边界,而且思考人们行为的“应当”的边界。这个应然边界的思考在当前更为迫切。在当前的技术中,人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听、会看、会说、会思考、会学习、会行动。如何发展向善的人工智能,我们需要思考人工智能应用的“应然边界”。正是基于这样的现实需求,我们跨越具体的领域与学科邀请到了学术界知名专家前辈、人工智能领域的一线科学家、各大高校的青年学者与博士生共聚南大仙林。潘天群强调,希望大家在这个平等的平台上进行交流和对话,并希望大家在本次人工智能工作坊上收获满满。

工作坊-主题报告

这次工作坊安排了5个主题报告。

在主题报告(一)阶段,南京大学人文社会科学荣誉资深教授林德宏先生作了题为《维护人类的尊严——人工智能技术观的思考》的报告。林先生生动形象地用“火的发明很伟大,火炉的发明更伟大,因为火炉把火关在了炉子里”为隐喻,以当前人工智能技术潜藏有可能不可控制的力量为立论观点,从“人类是否还要生存和发展?人类将来是否应当成为机器人的奴隶或宠物,失去自己的尊严?人和机器人的关系会如何演变,将来机器人会统治人类吗?”三个主旨性的问题为导引,主张维护人类的尊严,要有正确的人工智能技术观;提出了处理人机关系应当遵守的三条原则,即,人机关系只能是制造与被制造的关系,即不允许机器人制造人;人机关系只能是利用与被利用的关系,即不允许机器人利用人;人机关系只能是控制与被控制的关系,即不允许机器人控制人。

南京大学人工智能学院黎铭教授作了题为《人工智能:进展与挑战》的主题报告。黎铭是活跃在人工智能领域的一线科学家。黎铭从整体上概述了人工智能的发展简史,围绕强人工智能、弱人工智能(科学人工智能)两条发展主线及特点、研究进展,分析了人们对人工智能的担忧、疑虑;按照人工智能发展阶段,即,推理期、知识期、学习期为线索,介绍了人工智能的应用、缺陷及拟改进的尝试方法,并以AlphaGo人机对弈为具体案例,从人机对弈三局胜负情况分析了人工智能算法的弱点。此外,黎铭简述了南京大学人工智能学院科研团队在国际AI界所做的相关有影响的工作,分析了目前AI界、中国AI界所面临的难题和困境。

在主题报告(二)阶段,南开大学哲学系任晓明教授作了题为《自我升级智能体的理论源流和前沿问题》的报告。他研究了一种新的智能体模型:元胞自动机模型,这样的智能体模型是自涉的,且是自我学习、自我生产、自我繁殖、自我模拟的。任晓明追寻了这种智能体模型的理论之源,并强调认知科学、心灵哲学、人工智能的前沿研究正寻求新的智能制造路径,而自我升级的智能体模型尽管还没有被人类制造出来,这样的模型能够为我们在智能机器制造上提供新的可能进路。

清华大学哲学系教授卢风作了题为《如果计算主义为真》的报告。他首先介绍了认知计算主义及其所形成的计算主义世界观,并评析了中外学者对计算主义的认识、批评。卢风从整个宇宙世界、心灵认知及事物因果联系的等方面评析了世界人工大脑之父雨果·德·加里斯的技术观及量子物理学、非线性科学等领域的认知观。卢风指出,尽管计算机技术的高度发展,它在计算方面早已超过了人类,但人工智能在整体智能上不可能超过人类,尤其在创造思维方面。

中国社会科学院研究员、科学技术和社会研究中心主任段伟文作了《分布式道德与人工智能体的构造》的报告。他从《镜像》和自动武器系统为案例,分析了加西莫夫假设的机器人三定律及其应用于假设场景所存在的矛盾之处。认为应该从哲学上追问“谁为多智能体的集体行动承担道德后果负责?”,人类所面对的智能体,提供给人类的认知形式应该是某种“分布式认知”,所以,其道德责任的划分和认定也应该不同于传统的道德责任观,对此,我们应该构建一种针对人工智能体的应用伦理学。

工作坊-专题会议

工作坊安排了三个专题会场,它们是“人工智能伦理问题”会场、“一般人工智能哲学问题”会场和“人工智能与社会”会场。这三个专题会场共安排了31个报告。

在人工智能伦理问题(一)专题分会场上,浙江大学教授廖备水以“BuildingJiminyCricket:AnArchitectureforMoralAgreementsAmongStakeholders”为题,他认为,由制造商构建自动系统运行在一个受规范和法律约束的社会中,它最终会与用户互动,而系统中所有利益相关者的道德价值观和观点也都融入其中,并反映在自治系统的道德行为的挑战中。因此,我们可以用一种人为的道德代理架构解释其中的道德行为。湖南师范大学的万丹教授以《论SAE分级体系下自动驾驶汽车的责任主体问题》为题,分析了SAE各个等级下的责任划定问题。南京大学哲学系博士研究生钟纯以《人工智能视域下的伦理挑战与应对——以无人驾驶作为分析对象》为题以具体案例分析了其中存在的道德困境、伦理责任及相关问题。西安交通大学丁晓军以《人们对人工智能做道德决策的厌恶之源及解决之道》为题,通过对案例比较和归纳,论述了人工智能能在道德决策中的可能功能。山东师范大学的刘新军以《人工智能发展中相关伦理风险与人权问题的哲学反思》为题,以人与人工智能界限为切入点,分析了人工智能发展中相关伦理风险与人权问题的哲学反思。

在人工智能伦理问题(二)专题分会场上,清华大学社会科学学院博士生张正清以《道德共同体中的排他性根源——个体主义的外在解释方案》为题,对当今社会中对于机器权利等非人道德参与者的讨论,解析了道德共同体提供的以排他性为核心的解释路径,主张一种个体主义的外在论解释。上海师范大学教师苏令银以《论智能革命时代机器人的哲学挑战》为题,以“心智”可以被计算吗?“人工道德主体”存在吗?“主体性”存在于机器中吗?三个发问为切入点,提出了人工智能伦理需要


转载请注明:http://www.aierlanlan.com/rzdk/5473.html