AIの職場浸透と依存度の実態
-
知識労働者を対象とした調査で、「業務でAIを活用している企業」は 67% に達しており、AIは特別なツールではなく日常業務の一部として定着しつつある。
-
用いられる用途としては、スケジュール管理・カレンダー業務が最も多く(35%)、次いでデータ分析(33%)、メール・レポート作成(30%)など。
-
企業側では AI 利用を奨励し、ツール提供や研修、ガイドライン整備を行っている例もあるが、AI 利用を禁止する企業も一部残っている(約 4%)。
利用拡大に伴うリスク・課題
-
調査では、AI の誤出力が原因で業務ミスを起こした経験がある人は 57% にのぼる。
-
また 44% が、意図的に不適切な使い方をしたことを認めている。
-
セキュリティリスクも深刻:従業員の約半数が、社内で許可されているかを確認せずに AI を使っており、46% は機密情報を公開プラットフォームへアップロードした経験がある。
-
組織内部での摩擦も生じており、AI 導入によって部門間の対立や期待はずれの評価も見られる。
-
中には、従業員が AI 戦略を“妨害”するような行動をとるケースもあり、特に若年層でその傾向があると報告されている。
“人間の監視”だけでは不十分 — ガバナンス強化の必要性
-
単に人がチェックすればいい、というだけでは不十分で、明確なガバナンス体制・枠組みを構築する必要がある。
-
組織として、AI 利用に関する方針、禁止事項、データ取扱ルールなどを定め、社内で共有すべき。
-
監視体制(レビュー制度、エスカレーション機構、品質管理プロセスなど)を設計・運用することが重要。
-
部門横断的な AI 倫理委員会などを設置し、技術・法務・リスク管理・経営など関係部門で定期的に議論する仕組みが推奨される。
-
また、各 AI システムに関して「システムカード(機能・用途・制限・リスクなどを文書化)」を用意し、ユーザーが理解できるようにすることも有効。
-
最後に、技術や規制の変化に対応できるよう、方針を更新し続ける柔軟性や、規制動向をモニタリングする体制も必要。