OECDのAI原則
OECDのAI原則
民主主義と経済発展を推進する国際機関「経済協力開発機構(OECD)」は、5月22日にパリで開催されたOECDフォーラムにおいて、AIに関する一連の原則を発表した。
OECDのAI原則は次の通りだ。
AIは、包括的な成長、持続可能な開発、幸福を推進することで、地球上の人々と地球に利益をもたらすべきである。
AIシステムは、法の支配、人権、民主主義的価値観、多様性を尊重するように設計されるべきである。また、公明正大な社会を確実にするためにも、たとえば、必要に応じて人間が介入できるというような、適切な安全防護措置も含まれるべきである。
人々がAIに基づいて出された結果を理解し、異議申し立てができるように、透明性と責任ある情報開示がAIシステムと、とりまく環境に必要である。
AIシステムは、そのライフサイクルを通じて堅牢でゆるぎなく、かつ安全な方法で機能する必要があり、潜在的なリスクは、継続的に評価および管理されるべきである。
AIシステムを開発、導入、あるいは、運用している組織および個人は、上記の原則に沿って、AIシステムが適切に機能していることを示す説明責任を持つべきである。
The OECD AI Principles
The Recommendation identifies five complementary values-based principles for the responsible stewardship of trustworthy AI:
AI should benefit people and the planet by driving inclusive growth, sustainable development and well-being.
AI systems should be designed in a way that respects the rule of law, human rights, democratic values and diversity, and they should include appropriate safeguards – for example, enabling human intervention where necessary – to ensure a fair and just society.
There should be transparency and responsible disclosure around AI systems to ensure that people understand AI-based outcomes and can challenge them.
AI systems must function in a robust, secure and safe way throughout their life cycles and potential risks should be continually assessed and managed.
Organisations and individuals developing, deploying or operating AI systems should be held accountable for their proper functioning in line with the above principles.
2016年4月24日
2016年4月24日
2017年4月10日
2017年4月10日