OpenAI は、ChatGPT Plus および Enterprise の顧客が ChatGPT アプリ内で AI システムを使用できるようにすることで、最新のテキストから画像へのジェネレーターである DALL-E 3 へのアクセスを拡大すると発表しました。

DALL-E 3 AI画像生成器

先月初めて公開された DALL-E 3 は、ChatGPT の自然言語処理機能を利用して、ユーザーが提供する詳細なテキスト プロンプトから画像を作成します。新しいシステムは、強化された視覚的な詳細、より鮮明な画像、および広範なプロンプト説明への応答性を通じて、OpenAI の以前の DALL-E 2 モデルを改善することを目的としています。Microsoft は先月、Bing Search および Bing Chat との統合を通じて DALL-E 3 を公的に展開した最初の主要プラットフォームとなりました。しかし、物議を醸した9/11のシナリオの画像など、一部の問題のあるコンテンツは当初、システムのコンテンツフィルターをすり抜けていました。OpenAIはそれ以来、DALL-E 3の安全性の緩和と監視を強化していると主張している。OpenAI は発表の中で次のように述べています。「私たちは多層の安全システムを使用して、DALL・E 3 が暴力的、成人向け、または憎悪に満ちたコンテンツを含む潜在的に有害な画像を生成する能力を制限します。 ユーザーに表示される前に、ユーザーのプロンプトとその結果の画像に対して安全性チェックが実行されます。」さらに同社は、特定のアーティストのスタイルや著名人を模倣した作品を制限するための新たな措置を導入したと述べた。

AI画像検出器

OpenAI は、画像が DALL-E 3 によって生成されたかどうかを 99% 以上の精度で識別できる内部の「来歴分類子」を開発中です。DALL-E のようなテキストおよび画像生成システムは、著作権で保護されたコンテンツの複製、同意のない親密な画像の生成、偏見の永続化といった継続的な課題に直面しています。OpenAI は、ユーザーからのフィードバックと専門家の指導を通じて、DALL-E 3 の安全性を磨き続けます。将来に向けてDALL-E 3 の ChatGPT 加入者への展開は、公開されている AI 画像生成機能の大幅な拡張を意味します。OpenAI は、この最新モデルの安全性が向上していると主張していますが、有害なコンテンツや知的財産侵害に関するリスクは依然として残っています。今後、AI 倫理に関する業界全体の協力と合理的な規制の確立の必要性はますます高まるでしょう。