G検定 時事問題(倫理・法律問題)の解説 【試験本番で4割出題される最重要項目】

2017年に新設したG検定ですが、年々時事問題の出題数のウェートが高くなってきています。具体的には「AI利用の倫理」「法律改正」「著作権」「プライバシー」などの社会におけるAIの役割を問う出題が増えます。

この記事では、時事問題に関わる問題についての解説をしていきます。今後受験される方は、ぜひ参考にしてください。

本記事を読んでわかること

時事問題の学習方法
・時事問題の出題事例

プロフィール

シトヒ

  • 在宅勤務の会社員
  • 趣味・得意分野
    ⇨VPNヘビーユーザー
    ⇨テック分野が好物(人工知能関連、スマホ、通信)

【管理サイト】
お得情報発信 | OToKuGET.net
人工知能ノオト|AI NOTE
特化ブログの作り方まとめ
スポーツVOD.com

Twitter : (@shitohi_blog)

目次

時事問題(倫理・法律問題)の出題数

全体で約200問中おおよそ4割が、社会的な事情が出題されます。出題される問題の中には、最新のAIに関わる法律改正に関するものや、時事に関わる問題も出題されるため公式テキストではカバーできないためそれなりの対策を講じる必要があります。

時事問題対策① 公式テキストで概要把握

2020年春にG検定公式テキストが「第2版」改訂され、倫理・法律・時事に関する内容がより詳しく記載されています。まず最初にわかりやすく体系化されている公式テキストから学習することをおすすめします。

時事問題対策② AI白書で自習

最新のAI白書を読むことでAIのトレンドを掴むことができるのでおすすめです。しかしながら、3千円を超えて値段が高いこと、ボリュームが多くて読みきれないことが難点です。

最寄りの図書館などを利用するのがおすすめです。

時事問題対策③ 時事ニュース確認

日頃からAIに関する時事ニュースをチェックしましょう。定期的にまとめ記事をチェックすると効率良く学習できます。

以下のLedge.aiでは「ビジネス分野でのAI活用事例」「AI関連の学習コンテンツ情報」「AI開発に関わる最新ニュース」など、人工知能に関する多岐にわたる情報をチェックできます。

Ledge.ai
Ledge.ai AI(人工知能)関連メディア:AIなど最新テクノロジーに関するニュースや活用事例などを発信します。

時事問題の主な出題事例

著作権法について

AIによる著作物

AIによる画像、文章、楽曲の自動生成の創作物に関して、AIによる創作物の著作物性を明文的に認めた法律は現在存在しません。

学習用データに関する著作権法

2019年1月1日から施行 「著作権法の一部を改正する法律」

デジタル化・ネットワーク化の進展に対応した柔軟な権利制限規定の整備

教育の情報化に対応した権利制限規定等の整備

障害者の情報アクセス機会の充実に係る権利制限規定の整備

アーカイブの利活用促進に関する権利制限規定の整備

あわせて読みたい
Access Denied

学習済みモデルの保護

学習済みモデルは次の通り知的財産のおいて「技術」「契約」「法律」の3つ観点で保護されます。

  • 技術 技術的工夫によって防ぐ(クラウド化、等)
  • 契約 契約に基づく、利用条件の付加
  • 法律 知的財産権に関する法律(特許法、著作権法、不正競争防止法)で保護

自動運転に関わる法律

2025年をめどに、レベル4、5の完全自動運転システムの実用化が見込まれます。

自動運転のレベル分け 【SAE J 3016(2016)】

自動運転のレベル分けの定義は、アメリカの非営利団体SAEインターナショナルによって定義された【SAE J 3016(2016)】が世界中で共通の基準として利用されています。

自動運転
レベル
名称主体者ルール
レベル0運転自動化なし運転者・ドライバーがすべてを操作
レベル1運転支援運転者・走行エリアの限定あり
・システムがステアリング操作、加減速のどちらかを対応する
・運転手がステアリング操作、加減速のどちらかを対応する
レベル2部分運転自動運転者・走行エリアの限定あり
・システムがステアリング操作、加減速のどちらもサポート
・常時運転手がシステムを監視する
レベル3条件付き運転自動
(システム)
・走行エリアの限定あり
・緊急時はドライバーが操作対応する
レベル4高度運転自動
(システム)
・走行エリアの限定あり
・運転手なしでの走行OK
レベル5完全自動運転
(システム)
・走行エリアの限定なし
・運転手なしでの走行OK

海外の状況

アメリカのカリフォルニア州では、すでに無人自動運転車の走行が認められている。

日本の状況

2019年5月に「改正道路交通法」が成立し、レベル3(運転支援機能)の自動運転の実用化に向けた法整備が成立した。レベル3の条件付き運転自動運転中は、スマホ操作や読書が可能になります。

AIが犯した過失責任に関する問題

AIの所有者は「不法行為」「不法行為責任」において、故意、過失が問われる。
AIの製造者は「不法行為責任」「製造物責任」によって、責任を負う
「製造物責任」の範囲は動産にしか生じないため、純粋なプログラムとしてのAIについて、製造者が製造物責任を負う可能性はとても低い

ドローン関連

ドローンに関わる法律
航空法
小型無人機等飛行禁止法
道路交通法
民法
電波法
都道府県、市町村条例

許可が必要になる飛行場所

  • 空港周辺
  • 150m以上の上空
  • 人家の密集地域(人口集中地区、DID地区)

承認が必要になる飛行方法

  • 夜間飛行
  • 目視外飛行
  • 第三者やその所有物(家や車)の30m未満の距離での飛行
  • 催し場所での飛行
  • 危険物の輸送
  • 物件投下

情報銀行

情報銀行とは、総務省が「情報信託機能の認定に係る指針ver1.0」(2018年5月)で発表した「情報利用信用銀行」の略称です。

情報銀行は個人から預かった個人データをその個人の同意する範囲内で運用し、そこから得られる利益を個人に還元する組織です。情報銀行は個人の情報を必要とする事業者に提供することでその対価を得ることになります。

透明性レポート

透明性レポートとは、テック企業が政府の捜査機関から受けた情報開示の請求についてまとめたものです。

透明性レポートに関する過去の経緯は以下のリンクを参照ください。

あわせて読みたい
Google Transparency Report

FAT(Fairness, Accountability, Transparency)

「人間中心のAI社会原則」において、「公平性、説明責任及び透明性」の項目があります。これはAIの社会実装において留意すべき3つの項目とされることになっています。

特記すべき注意点としては、説明責任の範囲は次の通りAIによる判断の根拠を必ずしも説明可能にすべきというわけではありません。しかしながら、これらの説明責任を社会に向けて発信する必要があります。

  • AIに関する説明責任の範囲
  • AIを利用しているという事実の説明
  • AIに利用されるデータの取得方法や使用方法
  • AIの動作結果の適切性を担保する仕組み

説明可能なAI(人工知能)(Explainable AI:XAI)

XAI(説明可能なAI)とはディープラーニングによる特徴量抽出の自動化による、いわゆるブラックボックスを説明可能にするためのアプローチを表します。

その他時事問題に関するキーワード

「パートナーシップオン AI」
「GDPR (EU一般データ保護規則)」
「ディープフェイク」
「プライバシーバイデザイン」
「自律型致死兵器システム(LAWS)」
「特定通常兵器使用禁止制限条約(CCW)」

まとめ

本記事では、「時事問題の勉強方法」「主な出題事例」を紹介してきました。

本ブログではG検定の学習に役立つ情報を提供しています。ぜひ、以下の記事も参考にしてみてください。
G検定は文系でも独学で合格可能! 【合格者が教える標準勉強時間と学習方法】

よかったらシェアしてね!
目次
閉じる