组织机构/年会活动: 中国交易银行50人论坛 中国供应链金融产业联盟中国供应链金融年会 中国保理年会 中国消费金融年会 第三届中国交易银行年会
首页 >> 消费金融 >> 列表

智能金融六大不能忽视的问题

时间: 2018-02-28 15:20:40 来源: 当代金融家   网友评论 0
  • 人工智能在金融领域的应用是历史发展的必然,必须充分考虑监督管理人工智能金融业务的需要,充分保障金融领域的整体效率、整体秩序和整体安全;既不能因人工智能可能带来风险而限制其使用,也不能放任不管而给整个金融系统造成安全隐忧。

智能金融六大不能忽视的问题1

 

人工智能在金融领域的应用是历史发展的必然,必须充分考虑监督管理人工智能金融业务的需要,充分保障金融领域的整体效率、整体秩序和整体安全;既不能因人工智能可能带来风险而限制其使用,也不能放任不管而给整个金融系统造成安全隐忧。

 

近年来,随着国家对创新的鼓励,各行业都在开发具有人工智能性质的产品。金融的核心是货币的流通与融资,其在本质上是对信息的处理:对货币流通,可以看作是对货币收支信息的处理过程;对货币融资,可以看作是对信用信息的处理过程。

 

进入当代社会,以上一切都可以通过电子网络实现。目前,身份识别技术、网络支付技术、信用水平分析技术、智能投资顾问技术等已开始在金融行业得到应用,未来人工智能必将对金融发展造成较大的影响,由此形成了“人工智能决定论”和“人的智慧决定论”两种绝对式判断。

 

人工智能决定论者认为,随着人工智能的发展,未来会绝对超过人类,将人类变成人工智能的附属品,甚至被人工智能所统治。推论下来,未来金融领域的人工智能终会取代现有金融活动中的人类行为,人类在金融活动中将只能提供辅助性作用。人的智慧决定论者则认为,人工智能是由人类开发创造的,虽然在某些方面的能力可以超过人类,但总体仍由人类所控制,而绝不可能反过来控制人类。因此,未来在金融领域起决定性作用的仍会是人类,人工智能只能提供辅助性作用,不可能取代人类的决策和判断。

 

笔者认为,两种说法都有一定道理,但也都过于绝对化。人工智能与人类的最大区别是其行为的目的性,人类的行为是由自身的客观需求决定的,而人工智能并不存在这种客观需求,或者说人工智能的客观需求不可能等同于人类的需求,因而不可能产生与人类一样的行为目的。人工智能的行为目的只能由人类设定,即使人工智能能够自主学习也无法学习出主观上对外界的需求。

 

但必须承认,未来肯定会有许多辅助性金融业务被人工智能取代,如人类自主的投资决策行为等,利用人工智能完全可以实现。因而要求法学界特别是金融法学界,对相关方面的问题认真思考,并提出相应的前瞻思路。

 

问题一:人工智能的目标原则

 

一个完整的法学体系由目标、原则、主体、客体、行为、责任、程序七个要素构成,人工智能的法学和金融法学问题也应从这七个角度进行思考。

 

法学是人类有目的的行为,在实施具体行为前必须确定清晰的目标和原则。人工智能的基本法学目标应该是以人类为本位的,意味着人工智能的发展必须是为人类的需要服务的,至少不能用于实施会对人类需要造成损害的行为,不得使人工智能产生同人类普遍需要不一致的其他行为。

 

可见,在金融领域,发展人工智能的目标必须是为人类社会提供更好的金融服务,不得出现直接或间接损害人类整体或个体的金融利益的行为。否则,这种行为就应该认定为非法行为,这种人工智能就应该被认定为非法人工智能,从事该人工智能开发的主体和利用人工智能实施相应行为的主体都应该就其行为承担法律责任。

 

法学目标是对总体目的的规范,法学原则是在目标指导下的具体价值追求。就金融法学而言,人工智能的发展应坚持三项基本原则:整体金融利益原则、金融业务特征原则和保护个体利益原则。整体金融利益原则要求,使用人工智能必须有利于提高整体金融效率、维护整体金融秩序和保障整体金融安全,不得破坏正常的整体金融秩序,更不得影响整体的金融安全,导致出现系统性金融风险。否则,这种人工智能就是非法的。就金融业务特征而言,应包括业务操作特征和技术操作特征。金融业不同于其他行业,其业务开展具有特殊要求,人工智能的发展不得违反这些特殊的基本要求。此外,还必须考虑金融机构和金融客户的利益,人工智能不得侵害金融机构及其客户的正当利益。否则,也应被认定为非法。

 

问题二:人工智能的法学主体

 

人工智能是否能构成法学上的主体,直接关系到利益的分享和责任的承担,因而需要法学研究者必须认真对待。

 

法学意义上,对具体的承提主体主要有三个方面的基本要求:独立的决策能力、独立的责任能力以及得到法律的承认。前两项是实质性条件,后一项是形式性条件。我国《人工智能辞典》将人工智能定义为“使计算机系统模拟人类的智能活动,完成人用智能才能完成的任务”。既然人工智能有能力完成人用智能才能完成的任务,理应具备相对独立的决策能力。但因人工智能不具有完全独立的自我意识,不可能产生完全独立的主观需要,其决策能力在一定程度上受设计者控制,所以并不是完全独立的。再从责任能力上看,由于人工智能不具有独立的财产权和生命权,也不具有完全独立的责任能力,因此不可能成为完全独立的主体,充其量可具备一定的主体性。

 

就金融领域而言,人工智能发展到一定程度后,会具备一定的能力作出相对独立的身份识别决策、网络支付决策,甚至能够作出更加独立的信用水平分析决策和投资顾问决策。但这些决策并不是人工智能遵照自身的意愿、按照自己的需要作出的,而是按照设计者所理解的需要作出的;同时,人工智能虽然可能具有一定的自我意识性,却不可能具有完全的自我意识,即使拥有自学习能力也不可能完全摆脱设计者的要求而自由发挥。

 

就责任能力而言,以当前人工智能的发展水平,很难想像被法律承认它具有对独立财产承担责任的意义,也很难想像被法律承认它拥有自身存在价值的意义,而只能就其行为意义进行一定的判断。在此条件下,人工智能不可能成为完全意义上的法律主体。但未来人工智能可能会具有一定的自主决策能力,相当于法学意义上的限制行为能力主体,因而其开发者和经营者可以被看作监护人而承担一定的责任。

 

问题三:人工智能的法学客体

 

人工智能是否构成法学上的客体或财产,同样需要法学研究者的认真研究对待。

 

法上的财产并非指一切客观存在,而是指法上的主体权利义务所指向的客观存在。客体在客观上必须具有效用性、稀缺性和可控性,必须是对主体有用的、稀缺的并能被主体方便控制的;客体在主观上必须具有权责性、法定性和本源性,是权利和责任指向的对象,并且具有法律承认的合理来源和明确规定。人工智能虽然具有一定的主体性,同时也具有明显的法学客体性,但在目前,对于人工智能的法学客体问题,比如究竟属于何种财产,学术界还存在较大的争议,有观点认为人工智能是传统财产的扩展,也有观点认为人工智能其实是一种新的财产类型。

 

就金融领域而言,涉及财产问题的主要是人工智能本身和人工智能产品。就人工智能本身来说,其主要问题是某种人工智能技术能否被认定为是具有专利性质的技术,或者其体现出来的某个方面或某项能力能否被认定为是具有专利性质的技术。特别是针对具有自我学习能力的人工智能,由于具有一定的主体性,还能否同时被认定为客体或财产。笔者认为,人工智能在具有一定的主体性的同时,也具有一定的客体性,因而可以被作为一类特殊的财产来对待。

 

对于人工智能产品能否被作为财产,目前学界认知较为一致,仅在应该属于何种类型的财产方面存在部分争议。笔者认为,对人工智能也应进行主体性财产和客体性财产的划分。对于完全不具备自我意识、不能实现自学习的人工智能,应将其认定为纯粹的财产;对于具备一定的自我意识、具有自学习能力、能够相对独立地进行行为决策的人工智能,就应该将其认定为是具有一定主体性的财产。

 

问题四:人工智能的法学行为

 

法学上对主体和客体的静态的规定性是产生法学行为的前提,行为才是法学的本体,也是法学核心需要研究的问题。人工智能的法学行为主要包含三个方面的内容:人工智能设计者的行为、使用者行为以及人工智能自身的自主性行为。就人工智能设计者的行为来说,设计出的人工智能产品必须具有违法犯罪禁止功能,能够自动禁止自身实施违法犯罪行为;必须能够保障人工智能产品的质量,不得出现运行不可靠或行为不可控的情况;必须明确告知使用者其行为可能存在的风险以及使用过程中的注意事项。就金融领域的人工智能产品设计者而言,设计出的产品必须符合金融法的各项要求,不得成为金融违法犯罪的工具,同时必须具有遭遇风险或损失时的合理的强制人工控制功能。

 

人工智能的使用者是实际操作人工智能设备实施某种具体行为的主体。在金融领域,既可以是提供人工智能服务的金融机构,也可以是接受其服务的客户。作为金融机构,只能利用人工智能产品向客户提供合法的金融服务,不得利用人工智能产品实施违反金融法的行为;必须向客户明确告知其使用风险,包括人工智能具有一定的自主决策和行为能力,使用该人工智能产品可能出现的风险及其注意事项、人工停止损失措施和免责范围等;并必须保证所提供的服务能够达到适当的安全程度。同时,客户也必须对操作人工智能产品承担合理的注意义务,并不得利用其实施违法犯罪行为。

 

问题五:人工智能的法学责任

 

法律实施的保障是对责任的分配,法律责任的分配主要涉及三个层面的内容:归责原则、责任形式和责任程度。

 

在归责原则的层面,人工智能的设计者和使用者之间主要从道义和功利两个角度进行责任分配。从道义的角度,首先应坚持“过错责任”的原则,即由主观上存在过错的一方对损失后果承担法律责任,无论设计者还是使用者,只要在主观上存在过错,就应该对损失承担责任,若各方都有过错,则按各自的过错程度分配责任。从功利的角度,其次应坚持“损害责任”的原则,即由客观上给对方造成损失的一方承担损失责任,无论这种损失是由主观过错造成的还是由客观原因造成的。

 

在责任形式的层面,主要包括行为责任、财产责任和人身责任。首先应承担相应法律责任的是行为责任,人工智能的设计者和使用者应首先停止人工智能的违法犯罪行为,并通过设计和使用的改进与完善使其达到可以合理使用的标准,否则,就应该终止该人工智能的使用。其次应承担相应法律责任的是财产责任,对由于人工智能产品给使用者造成的在自己责任范围内的财产损失给予赔偿。最后应承担相应法律责任的是人身责任,可以通过撤销主体对人工智能产品的设计或使用资格使其失去实施违法犯罪的能力,也可以通过限制设计者或使用者的人身自由来阻止其违法犯罪行为,对于具有一定自主决策能力的人工智能产品则可以依法限制其行为自由。

 

从责任程度的层面,向受侵害个体提供的损失赔偿,应达到能够弥补其损失的程度。整体来看,按责任程度进行损失赔偿的实施效果必须足以控制该违法犯罪行为。

 

问题六:人工智能的法学程序

 

法律实施的结果是违法犯罪的预防和违法犯罪责任的确认与执行。就金融领域而言,前者主要是金融监管程序,后者主要是诉讼程序。

 

金融是一个严格行使监督管理的领域,针对该领域设计和使用的人工智能产品必须接受监管机关的严格监管,包括准入监管、运行监管和责任监管。首先,监管机关必须对人工智能的准入设置了严格的审查程序和审核标准,原因是人工智能可能带来巨大的系统性和非系统性金融风险,监管机关必须对准备在金融领域内使用的人工智能产品进行严格审查,只有经审核确认不会产生违法犯罪行为和导致系统性金融风险的人工智能产品,才会被允许投入实际使用。其次,监管机关必须对金融领域实际应用的人工智能产品运行情况进行监督,并在发现问题时予以纠正。最后,监管机关必须对利用人工智能实施的违法犯罪行为进行直接责任追究或通过诉讼进行责任追究。

 

作为一个问题的两个方面,被监管者的行为进步了,监管者的行为也必须同时进步。对于利用人工智能产品在金融领域实施违法犯罪的行为,可以由金融监管机关依法进行监督和侦查。我国金融监管机关享有对金融领域违法犯罪行为的侦查权,侦查权与监管权可以同时实施。随着人工智能的发展,不仅金融业务活动可以使用人工智能,金融监管和侦查行为也可以使用人工智能,这既是提高监督和侦查效率的需要,也是人工智能在金融领域应用的必然结果。否则,对于实际通过人工智能实施的金融违法犯罪行为,监管机关就会失去依法行使监督和侦查的主动权。对于人工智能设计者、金融机构或客户利用人工智能实施的违法犯罪行为,监管机关既可以直接追究其法律责任,也可以配合侦查机关、公诉机关等向法院提起诉讼,按照法院判决行使相应的权利义务,维护金融运行的效率、秩序和安全。

 

总之,人工智能在金融领域的应用是历史发展的必然,必须给予足够的重视,在相关金融法规的制定和实施过程中,必须充分考虑监督管理人工智能金融业务的需要,充分保障金融领域的整体效率、整体秩序和整体安全;既不能因为人工智能可能带来的风险而限制其使用,也不能放任不管而给整个金融系统造成安全隐忧。


[收藏] [打印] [关闭] [返回顶部]


  •  验证码:
热点文章
中国贸易金融网,最大最专业的中文贸易金融平台