「デジタル負債」に溺れていませんか?AI アシスタントは役に立ちますが、慎重に使用する必要があります

ここ数日、「切断する権利」がオーストラリアの立法議題に加わりました。これは、雇用主からの不当な時間外の連絡を拒否する従業員の権利を指します。

スマートフォンやポータブルデバイスのおかげで従業員が時間外に常に対応でき、雇用主が世界市場で競争し、厳しい納期で業務を遂行しているという労働環境では、仕事から離れることに対する懸念が双方に当てはまります。

職場における人工知能 (AI) アシスタントは、この「可用性の急上昇」に対する潜在的な解決策として宣伝されています。しかし、大手テクノロジー企業が私たちに何を考えさせようとしているとしても、それらは特効薬ではないかもしれません。

続きを読む: 柔軟性は私たちをより幸せにします、パンデミック後のハイブリッドな仕事に現れる 3 つの明確な傾向

壊滅的なデジタル負債

「デジタル負債」は、 Microsoft が仕事傾向指数に導入した用語で、職場の生産性への貢献がほとんどない、膨大な量のコミュニケーションおよび調整タスクを適切に表しています。

この指数は、オーストラリア、米国、英国、韓国などを含む 31 か国の31,000 人のフルタイムのナレッジ ワーカー、つまり商品ではなくアイデアを扱う人々を対象に調査を実施しました。

それによると、平均勤務日の 57% がコミュニケーションに費やされており、回答者の 68% が勤務中に集中できる中断のない時間を見つけることができていませんでした。

デジタル負債の起源は、20 世紀後半の「生産性のパラドックス」に遡ります。テクノロジーへの投資の増加が職場の生産性の低下につながりました。

このパラドックスが再び浮上した (そして名前が変更された) のは、主に現在の市場で組織や従業員が管理しなければならないデータが大量にあることが原因です。

コミュニケーションだけをとっても、ほとんどの従業員は 1 つまたは 2 つの電子メール アドレス、Zoom、Slack、Teams チャネルでの通話とチャット、WhatsApp と LinkedIn のメッセージング、会議を同期するための複数の日記を管理する必要があります。これは毎日 1,000 データ ポイントを軽く超えます。

デジタル負債を放置すると「利子」が発生し、従業員と雇用主の両方に悪影響を及ぼします。これは、仕事と私生活の境界があいまいになり、夕食後に受信箱を整理したいという衝動が始まる転換点です。

夜に自宅のコンピューターに座ってファイルを見ている男性

一日中いつでも自宅で仕事にアクセスできると、スイッチをオフにするのが難しい場合があります。 ホスエ・ベルデホ/Pexels

AIアシスタントが助けてくれる?

業界をリードする AI 技術をスケールアップするためにOpenAI が選んだパートナーであるMicrosoft は、同じ作業傾向レポートをやや都合よく利用して、自社の AI アシスタントである Microsoft Copilot をデジタル負債に対する真のソリューションとして位置づけています。

AI ツールを提供する大手テクノロジー企業には明らかな経済的利益があります。しかし、これらの AI アシスタントの機能は、デジタル負債、データの氾濫、切断する権利の交差点にふさわしいものです。したがって、さらなる調査が必要です。

最も広い意味では、生成 AI (ChatGPT を思い浮かべてください) は、人間のオペレーターからのプロンプトに応答して、新しくて意味のあるコンテンツを生成します。AI アシスタントは、目標指向の複雑なタスク向けにこの機能を一般化します。現在、Copilot、Google の Gemini、Amazon Q、Anthropic の Claude など、サブスクリプションベースのサービスには事欠きません。

AI アシスタントは、すべての新しいメールを要約し、応答が必要なメールを検出して優先順位を付け、応答の下書きを作成し、人間の入力が必要なギャップを強調表示できます。その後、アシスタントは電子メールを送信し、後続のチャットの会議をスケジュールできます。

ナレッジ ワーク タスクの中でも、AI アシスタントは、さまざまなドキュメントのテキストの下書きと修正、スプレッドシートのデータからのグラフの生成、またはテキストの多いプレゼンテーション スライドの画像の生成を行うこともできます。

監督が必要な困ったアシスタント

残念ながら、 AI アシスタントの技術的パフォーマンスに関する初期のユーザーのフィードバックは精彩を欠いています。

これは主に、生成 AI のトレーニング方法によるものです。生きた経験を通してではなく、過去のデータから学ぶため、世界に関する事実の知識が欠けています。これは、完了したタスクの結果を検証できないことを意味します。

したがって、AI を使用する人間は、潜在的なエラーや虚偽表示を避けるために、アシスタントの出力すべてを「ピアレビュー」する必要があります。

「より少ない労力でより多くのことを行う」ことが期待されているほとんどの職場では、このような必要な AI アシスタントが追加の作業層を生み出すことになります。また、時間のプレッシャーがかかると、簡単に見落とされてしまう可能性もあります。

続きを読む: AI と仕事の未来: ChatGPT、DALL-E、その他の AI ツールがアーティストや知識労働者にとって何を意味するのかについて 5 人の専門家が語る

迫り来る倫理問題

AI にも倫理上の問題があることは周知の事実であり、これは AI アシスタントにも及びます。Open AI の CEO の解任と再雇用、およびMicrosoft の倫理チームの解雇によって示されるように、透明性とガバナンスに対する大手テクノロジー AI プロバイダーの平凡な態度は、大々的に宣伝されている生成AI。

AI がもたらすリスクに基づいて AI を規制する取り組みは行われていますが、課題は、リスク自体が動的であることです。

たとえば、政治的に敏感なコンテンツ、音痴のコンテンツ、または職場に不適切なコンテンツが AI によって作成され、配布された場合、単純な事務作業がひどく間違った方向に進む可能性があります。

大規模な AI モデルがライブ データでトレーニングを継続する可能性が高いことを考慮すると、組織は厳格なガバナンスと分類プロトコルを通じて機密情報を保護する必要があります。

要約すると、AI アシスタントはデジタル負債を軽減し、時間外のビジネス継続性を提供するのに役立ちます。これは、誰もが同意できる、切断する権利の状況に向けた方向性を示す可能性があります。

しかし、このコースには課題が山積しています。これらには、組織の準備状況、AI リテラシー スキル、AI ガバナンス、説明責任の枠組み、必須のピアレビュー、費用対効果の高いサブスクリプションが含まれます。

増大するデジタル負債とワークライフバランスの欠如に対して、持続可能な利益を確保するために、AI への投資は評価され、責任を持って行われなければなりません。

バッテリー・ACアダプターなどがお買得価格で購入できるDenchis.comは通販サイトです。購入できる安心の正規販売店です。高性能、高品質、しかも低価格!30日間返金保証,安心の1年保証!

发布日期:
分类:情報

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注