AI

AI - 依存

AIの職場浸透と依存度の実態

  • 知識労働者を対象とした調査で、「業務でAIを活用している企業」は 67% に達しており、AIは特別なツールではなく日常業務の一部として定着しつつある。 

  • 調査回答者の 46% が「AIに大きく依存している」「ある程度依存している」と回答。

  • 世代別では、Z世代(若年層)の約 70% が AI への強い依存を認めている。

  • 用いられる用途としては、スケジュール管理・カレンダー業務が最も多く(35%)、次いでデータ分析(33%)、メール・レポート作成(30%)など。

  • 企業側では AI 利用を奨励し、ツール提供や研修、ガイドライン整備を行っている例もあるが、AI 利用を禁止する企業も一部残っている(約 4%)。

利用拡大に伴うリスク・課題

  • 調査では、AI の誤出力が原因で業務ミスを起こした経験がある人は 57% にのぼる。

  • また 44% が、意図的に不適切な使い方をしたことを認めている。

  • セキュリティリスクも深刻:従業員の約半数が、社内で許可されているかを確認せずに AI を使っており、46% は機密情報を公開プラットフォームへアップロードした経験がある。

  • 組織内部での摩擦も生じており、AI 導入によって部門間の対立や期待はずれの評価も見られる。

  • 中には、従業員が AI 戦略を“妨害”するような行動をとるケースもあり、特に若年層でその傾向があると報告されている。

“人間の監視”だけでは不十分 — ガバナンス強化の必要性

  • 単に人がチェックすればいい、というだけでは不十分で、明確なガバナンス体制・枠組みを構築する必要がある。

  • 組織として、AI 利用に関する方針、禁止事項、データ取扱ルールなどを定め、社内で共有すべき。

  • 監視体制(レビュー制度、エスカレーション機構、品質管理プロセスなど)を設計・運用することが重要。

  • 部門横断的な AI 倫理委員会などを設置し、技術・法務・リスク管理・経営など関係部門で定期的に議論する仕組みが推奨される。

  • また、各 AI システムに関して「システムカード(機能・用途・制限・リスクなどを文書化)」を用意し、ユーザーが理解できるようにすることも有効。

  • 最後に、技術や規制の変化に対応できるよう、方針を更新し続ける柔軟性や、規制動向をモニタリングする体制も必要。

ニュース

-AI