人-机器人-合作作业中的责任

作者:Susanme Beck 文章来源:MM《现代制造》 点击数:678 发布时间:2017-06-22
迄今为止,人-机器人-合作还是以分开的部门进行作业的,为此,现在的研究越来越多地集中在人与机器的合作方面。人与机器合作的研究将带来更多机会,但也存在着(法律层面的)风险。在机器人技术的研究方面,人们也面临着法律层面的诸多挑战。
人-机器人-合作作业中的责任

人-机器人-合作(MRK)向企业提出了法律层面的挑战

人-机器人-合作应该将风险保持在尽可能低的水平并且应该广泛地预先明晰责任问题。现在,人-机器人-合作的科研方、研发方和用户方均要了解现在的人-机器人-合作(MRK)研究以及今后在生产中的应用所存在的潜在责任风险,对此研发出适应条件的新型产品。此外,社会也应对机器人技术的进步持毫不怀疑、更加开放的态度。

法律要伴随着研究和生产,并且由此建立起社会的广泛安全;从机器人技术未来的角度来看,法律安全对技术进步十分重要。

从法律的角度来看人-机器人-合作(MRK)

传统意义上,人和(工业)机器人是在物理意义上的隔离状态下进行作业的,这样对于工人来说危险小且直观,与机器人分开作业的风险比那些在许多其他机器旁进行作业的工人的风险要低。而在当前的现实中,人和机器人经常进行实际合作并分摊具体任务。由此学习使用机器的人员、逻辑机器元件或联网机器的受损风险也在加大。机器行为的不可预见性和错误行为的举证难度均在加大。为了弄清对实际状况进行法律伴随的意义,了解在当前的人-机器人-合作(MRK)中可能产生的刑法范畴的疏忽责任便非常重要。

人-机器人-合作不仅可能会出现刑事疏忽责任问题,而且对此的关注还会引起其他法律领域的讨论。在官方的法律中,一方面涉及到要将机器人视为危险源,也就是说能够在其他许可规定中查到这项法律规定、要确定适用范围、设置准许要求条件及如何进行监控,并且要在警方提供工作支持的条件下来规定机器人在使用中的风险规避。

刑法中对疏忽责任的界定

机器人技术的研究和生产部门工作人员存在着因其行为可能会受惩罚的顾虑。如果机器伤了人或者机器致人死亡,那么,根据疏忽致人受伤(§229 StGB)或是致人身(§222 StGB)的规定,机器人技术的研究和生产部门的工作人员会受到被惩罚的风险。针对法律后果,机器人技术的研究和生产部门的相关工作人员也没有保险或是类似保险之类的东西。

原则上要规定由于疏忽行为而受到惩罚的前提(各个具体的前提条件和它们的关系存在着的有待商榷之处):

● 行动者未达到人们通常公认的细心程度;

● 客观上产生了损害且该损害是主观上可预见的;

● 行为没有弥补社会公认的风险。

人-机器人-合作(MRK)是人们迄今为止未知的状况,这方面几乎没有普遍适用的标准。尽管人们在图书馆里找到了几个ISO和DIN标准,但是这些标准涉及不到所有情况,而且不少标准也已经过时或现在已经不再适用。有时候人们也对这些标准持怀疑态度,他们认为这些标准是由一定的利益集团定期颁发的,颁发标准的方法并不总是透明的。可能存在着单方的利益表述强于企业的内部规定的情况。匮乏的标准当然不大会导致出现全面行动禁止的情况。只要没有合适的标准存在,人们就必须要看到允许的风险。如果要颁发这样的标准,制定标准的方法透明便很重要,要尽可能地吸收不同利益的代表和制定标准的规则,并且要考虑国家的法律规范。

另一个问题是必须具备前瞻性。原则上这也适用于机器人技术,必须避免对第三方造成可预见的伤害。对于参与作业者来说,人-机器人-合作(MRK)无疑被认为是一个数字统计方面的抽象的危险。与此同时,机器人的具体状态和行为又是不可预知的。人们无法全面控制机器的决定,而迄今为止人的角色在与机器人打交道方面的经验甚少。这样就提出了一个问题:人们要求的专门的可预见性必须是怎样的呢:如果要求人们对具体状况的可预见性,那么这很少会导致出现刑法责任;如果可预见性符合统计意义上的可预见性,那么可能经常会肯定可罚性,这样的结果也会导致这些机器人的进一步研发受到阻碍。因此看来在人-机器人-合作(MRK)的前后关系中这个标准不是确定疏忽责任的重要障碍。

人们的关注应更多放在允许的风险方面,也就是要放在目前社会上对那些还未取得一致允许的风险的态度方面。一旦有了法律规定,这个一致的态度便会具备深远的意义。如果允许典型的某种风险,那么, 由于技术会给社会带来明显的好处,在人-机器人-合作(MRK)的情况下也会给雇主和那些有时要付出重体力劳动的雇员带来明显的好处。确定允许的风险要求分析说明由此带来的好处,同时也要求分析说明可能带来的害处。

这就是说,必须要进行权衡,看在哪些生活领域里人们希望自动化向前发展,而在哪些生活领域里人们不希望自动化向前发展;是否必须排除某些特定人群,例如排除儿童或是无自主意识的病人与一个危险的机器人进行(受到约束的)互动,以及通过设置具体的条件,使这类人群能够尽可能安全地使用这样类型的机器。同样重要的是要考虑允许的风险,谁具备最佳的控制这类机器的能力,谁在怎样的范围内能够对机器的行为施加影响,谁就能够从使用这类机器中受益。一旦缺少详细的法律规定,法律的适用者须自行思考并确定参与人-机器人-合作(MRK)人员的行为是否是在允许风险的范围之内活动。

这个所谓的信任原则的应用提出了一个特殊的问题。当人们处于人-机器人-合作(MRK)中应该信任其他参与方的谨慎细心程度吗?而这个参与方在机器人技术中恰恰面对着对机器行为的未知和对其决定和行动缺乏预见性。那么,一旦机器人没有作为人-机器人-合作(MRK)中的社会参与方被持续确定、被熟知和可预见,那么此时人们有可能会拒绝信任机器。因此,在当前与机器的合作中,人们在任何时候都必须保持比与人合作时所具备的更高的风险防范意识。

需要新的法律和标准

机器人技术的发展提出了法律层面的新挑战。要求在符合其他行为标准和重新分配责任条件下的新法规和法规之外的新标准。这对于疏忽责任则具体意味着:

● 在目前与机器人打交道方面缺少明确的行为期待时,原则上必须高度谨慎。

● 对机器的信任原则当前是不适用的。

● 法规和法规以外的企业内部的标准必须严格地检验其与法律的一致性,并且不得直接套入进刑法。

● 在编写企业内部的标准时需要有一个透明的、“民主”的程序;伦理学专家和法学专家须参与到该项研究中。

● 最后,必须由社会决定,谁可以与机器人集成,并且决定处在什么样年龄段的、在什么样的条件下的人-机器人-合作(MRK)足够安全并获得社会认可。