- The best MagSafe accessories of 2024: Expert tested and reviewed
- Threads will show you more from accounts you follow now - like Bluesky already does
- OpenAI updates GPT-4o, reclaiming its crown for best AI model
- Nile unwraps NaaS security features for enterprise customers
- Even Nvidia's CEO is obsessed with Google's NotebookLM AI tool
CIOは企業で生成AIをどのように活用するか
生成AIの初期段階においても、すでに組織を変革し、IT戦略に大きな影響を与えている。言語モデル(LLM)はエンジニアリングの俊敏性を加速させる一方で、前例のない技術的負債の蓄積をもたらす可能性がある。「生成システムは生産されるコードの量を増加させる可能性が高く、それだけで技術的負債は増加する」とアナリスト会社Red Monkの創設者であるスティーブン・オグレディは言う。
しかし、これはCIOがAIの探索と導入を避ける理由にはならないと、SalesforceのEVP兼CIOであるフアン・ペレスは付け加える。彼はAIを適切なガバナンス、安全管理、メンテナンスとサポート、ライフサイクル管理を必要とする他のアプリケーションと同様に見ている。そして、AI製品の数が増加する中で、最適なモデルと基盤となるデータを選択することがAIの旅をサポートするために重要であると言う。
正しく導入されれば、生成AIはより高品質な製品を低コストで生産することができる。「AIが全体的なビジネスにプラスの影響を与えるかどうかの問題ではなく、それがどれだけ早く、どれだけ大きな影響を与えるかの問題である」とWalgreens Boots AllianceのCIOであるニール・サンプルは言う。しかし、彼は責任あるAI開発を実現するためには、政府の規制と企業のガバナンスの両方が必要であると指摘している。
生成AI:IT戦略の中心
機械学習モデルは、より迅速なIT反復を可能にする潜在能力を持っている。少なくとも、単調で反復的な作業の負担を自動化し、ソフトウェア開発者の帯域を解放して、より創造的で高度な作業に集中できるようにすることができると、コードテスティングプラットフォームSonarのCIOであるアンドレア・マラゴディは言う。「これらのチームを支援するために生成AIツールに投資することは、彼らの成長、生産性、そして一般的な満足度への投資である」と彼は言う。
生成AIは、特にJava、Python、C++などの確立されたプログラミング言語のコード生成において、開発を劇的に増加させると、Palo Alto NetworksのCIOであるミーラ・ラジャベルは付け加える。しかし、その力はそれだけにとどまらない。彼女は、コードテスティングを左にシフトし、単体テスト、デバッグ、ソフトウェア開発サイクルの早い段階でのミスの特定を支援することにおいてAIが重要な役割を果たすと見ている。「CIOとして、開発者に成功するための最良のツールを提供することが仕事の重要な要素であり、AIは効率を向上させることは間違いない」と彼女は言う。
AIはまた、部門全体の運用を大幅に進歩させる可能性がある。コード不要の自動化プラットフォーム会社WorkatoのCIOであるカーター・バスは、AIが今年の会社のIT戦略の中心にあると述べている。しかし、その利点はITの領域を超えて、カスタマーサポートの支援、生産性の向上、クロスチームのイノベーションの促進にも及ぶ。「CIOはビジネスを効率的に成長させることを課せられており、AIが今後その方法になる」と彼は言う。
したがって、最新のAIの波から利益を得るのはコード生成だけではない。クラウドベースのデータウェアハウジング会社SnowflakeのCIO兼CDOであるサニー・ベディによると、従業員の生産性が最大の影響を受けると予想される。彼は、すべての従業員が新入社員のオンボーディング体験をパーソナライズし、内部コミュニケーションを調整し、革新的なアイデアをプロトタイピングするのを支援するAICopilotと密接に連携する未来を予見している。LLMの即時利用可能な機能を活用することで、企業は検索、ドキュメント抽出、コンテンツ作成とレビュー、チャットボットなどの運用において第三者への依存を減らすことができるとも述べている。
技術的負債に対するAIの貢献
生成AIモデル自体ではなく、それらが実際にどのように適用されるかが、IT負債の生成において最大の決定要因になる。「どこでどのようにAIが組織に実装されるかを慎重に考える必要があり、今後の技術的負債の生成を避けるため」とサンプルは言い、既存の技術エコシステムにAIモデルを適用する場合、接続性の改訂や古いスタックを使用しながら生成AIモデルを統合する場合など、負債が累積するリスクが高いと付け加える。
一方で、適切に使用されれば、生成AIはレガシーアプリケーションを書き直し、タスクのバックログを自動化することで、古い技術的負債を排除するのに役立つ可能性がある。とはいえ、CIOは適切なクラウド環境と戦略なしに飛び込むべきではない。「組織が生成AIを早急に導入すると、既存の技術的負債が増加し続けるか、場合によっては慢性化する可能性がある」とHylandのCIOであるスティーブ・ワットは言う。そのため、彼は新しいAI駆動のイニシアチブが崩壊しないように、既存の技術的負債に対処する計画を立てることを推奨している。
初めは、企業がAIとLLMを試験的に使用することでIT負債が増加するかもしれない。しかし、バスは長期的にはLLMがそれを減少させると同意しているが、これはAIが変化する要件に動的に対応できるかどうかにかかっている。「ビジネスプロセスにAIを組み込むことで、プロセス変更に迅速に対応できるようになり、技術的負債が少なくなる」と彼は言う。
AI生成コードの品質評価
最近、AI生成コードの品質に関する疑問が提起されており、AIペアアシスタントの登場以来、コードの変更と再利用の増加が報告されている。Red Monkのオグレディによると、AIが生成するコードの品質は、使用するモデル、手元のユースケース、開発者のスキルセットなど多くの要因に依存する。「人間の開発者と同様に、人工システムも欠陥のあるコードを生成し続ける」と彼は言う。
例えば、SonarのマラゴディはMicrosoft Researchの最近の研究を引用しており、その研究では22のモデルを評価した結果、一般的にそのベンチマークでテストされると失敗することが示されている。これは、トレーニング設定に基本的な盲点があることを示唆している。人工アシスタントは機能的なコードを生成することができるが、効率性、安全性、保守性などの他のコンテキストを考慮することは少ない。また、コード規約への遵守も考慮されないと説明されている。
マラゴディにとっての結論は、改善の余地がまだ十分にあるということだ。「生成AIはより多くのコード行をより迅速に生成することができるが、品質が良くない場合、それは時間のかかる厄介な問題になる可能性がある」と彼は言う。彼はCIOやCTOに対し、AI生成コードがクリーンであることを確認するための必要な手段を講じるよう促している。「これには、一貫性があり、意図的で、適応可能であり、責任を持つことが含まれ、それが安全で、保守性が高く、信頼性があり、アクセス可能なソフトウェアにつながる」と彼は言う。
これらのモデルの根本にある品質の懸念は、コードの出力に悪影響を及ぼす可能性がある。生成AIは優れた技術的成果物を生み出す可能性を持っているが、データの品質、モデルのアーキテクチャ、トレーニング手順がすべて不十分な結果につながる可能性があると、クラウド技術インテリジェンスプラットフォームSnow SoftwareのCIOであるアラステア・プーリーは言う。「不適切にトレーニングされたモデルや予期しないエッジケースは、品質の低い出力をもたらし、運用リスクを引き起こし、システムの信頼性を損なう可能性がある」と彼は言う。これには、出力と品質の継続的なレビューと検証が必要だ。
AIは他のツールと同様であり、使用するツールとその使用方法によって結果が異なると、Palo Alto Networksのラジャベルは付け加える。彼女にとって、適切なAIガバナンスがなければ、選択したモデルが製品のアーキテクチャや意図した結果に適合しない低品質の成果物を生成する可能性がある。もう一つの重要な要素は、手元の作業に最適なAIを選択することであり、すべてのタスクに適した万能のモデルは存在しないと彼女は言う。
潜在的なAIリスクの洗い出し
IT負債やコード品質以外にも、生成AIを導入する際には潜在的な悪影響を考慮する必要がある。「これらには、データのプライバシーとセキュリティ、アルゴリズムのバイアス、雇用の置き換え、AI生成コンテンツに関する倫理的な問題などが含まれる」とプーリーは言う。
一つの可能性として、悪意のある個人が生成AIを利用することが挙げられる。ラジャベルは、サイバー犯罪者がすでに説得力のあるフィッシングキャンペーンを作成し、偽情報を広めるためにこの技術を利用していることを指摘している。攻撃者は生成AIツールやモデル自体を標的にして、データ漏洩や出力の汚染を引き起こす可能性もある。
「生成システムは攻撃者を加速させ、支援する可能性がある」とオグレディは付け加える。「しかし、多くの企業にとって最大の懸念は、閉じられたベンダーシステムからのプライベートデータの流出である」と彼は言う。
これらの技術は非常に説得力のある結果を生成することができるが、不正確な情報が含まれる可能性がある。モデル内のバグ以外にも、コストの問題を考慮する必要があり、誤ったモデルの使用や消費コストの可視性の欠如、または効果的に使用されないことで、多額の費用がかかる可能性がある。
「AIにはリスクが伴う」とペレスは言う。「最も基本的なユーザーから最も経験豊富なエンジニアまで、誰もがその結果を信頼できるようにするためのエリアを人間がコントロールする必要がある」とも語る。ペレスにとってのもう一つの未解決の問題は、AI開発とメンテナンスのオーナーシップであり、これはイノベーションの需要に対応するためにITチームに圧力をかけていると彼は言う。
雇用に関する問題
次に、主流メディアで話題になっているのは、AIによる人間の労働の置き換えである。しかし、生成AIがITグループの雇用にどのように影響するかはまだ明らかではない。「雇用への影響は現時点では予測が難しいため、それは潜在的な懸念事項だ」とオグレディは言う。
この議論にはさまざまな意見があるが、WalgreensのサンプルはAIが人類にとって存在的な脅威をもたらすとは考えていない。彼はむしろ、生成AIが従業員の生活を改善する可能性に対して楽観的である。「コップ半分の見方は、AIが多くの仕事に影響を与えるということだが、コップ半分の見方は、AIが人間の能力を向上させるということだ」と彼は言う。「最終的には、AIは自動化できる反復的な作業から人々を解放し、より高度な仕事に集中させることができると思う」と彼は付け加える。
AIに対する懸念を和らげる方法
AIのもたらす懸念に対応するには多面的なアプローチが必要だ。ペレスにとって、生成AIの品質はこれらのモデルが取り込むデータにかかっている。「信頼できるAIを求めるなら、信頼できるデータが必要だ」と彼は言う。しかし、データはしばしばエラーが多く含まれており、さまざまな形式の非構造化データを統合するためのツールが必要である。彼はまた、「人間がループにいる」アプローチを超えて、人間をもっと運転席に置くことを強調している。「AIは信頼できるアドバイザーであるべきだが、唯一の意思決定者ではない」と彼は付け加える。
ソフトウェアの品質を維持するためには、AI生成コードが正確でバグのないことを確認するための厳格なテストも必要だ。このために、マラゴディは企業に対して、静的解析と単体テストを含む「コードをクリーンにする」アプローチを採用するよう奨励している。「開発者がクリーンコードのベストプラクティスに集中することで、彼らは自分のコードとソフトウェアが安全で、保守性が高く、信頼性があり、アクセス可能であることに自信を持つことができる」と彼は言う。
新しい技術には、初期の熱意を適度な慎重さで和らげる必要があると、ベディは付け加える。そのため、ITリーダーはAIアシスタントを効果的に使用するための手順を検討する必要がある。たとえば、アーキテクチャのドリフトを検出できる可観測性ツールや、アプリケーション要件の準備をサポートするツールを使用することが挙げられる。
AI採用に関するガバナンスの適用
「生成AIは、適切に管理されれば、実質的な利益をもたらす潜在能力を持つ新しい技術革新の時代を象徴している」とプーリーは言う。しかし、彼はCIOに対して、イノベーションと固有のリスクのバランスを取るように勧めている。これらのツールの無制限の使用によるデータ露出を制限するための管理とガイドラインが特に適用される必要がある。「多くの技術機会と同様に、それがうまくいかなかった場合、CIOは責任を負うことになる」と彼は付け加える。
サンプルにとって、その責任の一部はAIが社会に与えるリスクに適切に対処するために規制当局にある。例えば、バイデン政権の最近の大統領令は、新しいAIの安全性とセキュリティ基準を確立することを目的としている。もう一つの側面は、この急速に進化する技術を管理するための企業ガイドラインを策定することである。例えば、Walgreensは、公平性、透明性、セキュリティ、説明可能性などの考慮事項を含むAIに関するガバナンスフレームワークを定義するための取り組みを開始していると彼は言う。
Workatoのバスも同様に、AIの普及に伴うセキュリティとガバナンスを優先するための内部指針の設定を提唱している。彼は、従業員への教育、内部プレイブックの作成、AIの実験に対する承認プロセスの実施を勧めている。プーリーは、多くの企業がAIのリスクを管理し、その利点を活用するためのAI作業グループを設立していることを指摘している。セキュリティ意識の高い組織の中には、さらに厳格な措置を講じているところもある。データの流出を防ぐため、多くの購入者がオンプレミスシステムを優先しているとオグレディは付け加える。
「CIOは、チームが生成AIを特定、構築、実装し、組織に利益をもたらす方法で使用するための適切なトレーニングとスキルを持つことを保証するために、リーダーシップを発揮するべきだ」とペレスは言う。彼はSalesforceのプロダクトおよびエンジニアリングチームがAIの入力と出力の間に信頼のレイヤーを実装し、この強力な技術を使用することによるリスクを最小限に抑えていることを説明している。
それとは別に、AIを意図的に使用することもガバナンスと同様に重要である。「多くの企業が、AIが何をするのか、どのようにビジネスに最も利益をもたらすのかを明確に理解せずに、AIを急いで導入している」とHylandのワットは言う。AIはすべての問題を解決するわけではない。したがって、技術が解決できる問題と解決できない問題を理解することが、それを最大限に活用するための基本であると彼は言う。
ビジネスへの積極的な影響
適切なチェックが行われれば、生成AIは無数の分野でより大きな機敏性を促進し、CIOはそれがユーザー体験のような具体的なビジネス成果を実現するために利用されると予見している。「生成AIは、企業がかつて不可能と感じた顧客体験を創造することを可能にするだろう」とペレスは言う。「AIはもはやニッチなチームのためのツールではない。誰もがそれを使用してより生産的で効率的になる機会を持つだろう」
しかし、UXの利点は外部の顧客に限らない。内部の従業員体験も恩恵を受けるだろうとラジャベルは付け加える。内部データでトレーニングされたAICopilotは、ITチケットリクエストを半減させることができると彼女は予測している。それは、内部の会社ページにすでに見つかっている答えを即座に提供することによるものである。
Walgreensもまた、生成AI駆動のボイスアシスタント、チャットボット、テキストメッセージングを通じて顧客体験を向上させているとサンプルは言う。コールボリュームを減少させ、顧客満足度を向上させることで、チームメンバーは店内の顧客により集中することができる。また、会社は生成AIを使用して、サプライチェーン、店内スペース、在庫管理などの店内運用を最適化し、ビジネスのトップラインとボトムラインに関する意思決定をサポートしている。しかし、警戒が必要である。
「これまでのすべての技術的波と同様に、AIもまた重大な欠点や副作用を伴うことがある」とオグレディは言う。「全体として、AIは開発を加速させ、人間の能力を拡張し、問題の範囲を劇的に拡大するだろう」と彼は結論付ける。