エヌビディア(NVDA)が2月13日に公開した「Chat with RTX」技術デモは、AIと私たちの関わり方に革命をもたらしました。この無料で入手可能なソフトウェアは、オープンソースのAI大規模言語モデルを活用し、個人のファイルやドキュメントに直接アクセスしてインタラクションする能力を提供します。Mistralやメタ・プラットフォームズ(META)のLlama 2などのモデルがサポートされており、この技術はユーザーがローカルに保存された.txt、.pdf、Microsoft Word文書などのファイルに含まれる情報について質問する新たな方法を提供します。
プライバシーと速度の最適化
「Chat with RTX」はWindows RTX PCやワークステーション上でローカルに実行されるため、応答は高速であり、何よりもユーザーのデータは完全にプライベートに保たれます。エヌビディアによると、このシステムはクラウドベースの大規模言語モデルサービスに依存せず、インターネット接続や第三者とのデータ共有なしに、機密データをローカルPCで安全に処理できるとのことです。
使用条件と性能
「Chat with RTX」を利用するためには、Windows 10またはWindows 11が搭載され、少なくとも8ギガバイトのビデオメモリを持つエヌビディア GeForce RTX 30シリーズまたは40シリーズGPUが必要です。この技術は情報的な問い合わせには適していますが、ファイルのデータセット全体にわたる推論を伴う質問にはまだ対応していません。しかし、チャットボットの性能は、特定のテーマに関するファイルやコンテンツが豊富にある場合に向上すると言われています。
アクセシビリティとダウンロードサイズ
エヌビディアは、最低価格299ドルのGeForce RTX 4060カードでさえも「Chat with RTX」の要件を満たすことを明らかにしています。ダウンロードサイズはAIモデルに依存し、50ギガバイトから100ギガバイトの範囲です。これは、ユーザーが先進的なAIテクノロジーを手軽に利用できることを意味し、エヌビディアの最新技術がいかにアクセスしやすいかを示しています。
まとめ
エヌビディアの「Chat with RTX」は、AIとのインタラクションを新たな次元に引き上げる技術的な進歩を表しています。個人のデータプライバシーを保護しながら、ファイルやドキュメントとの直接的な対話を可能にするこの革新的な技術は、将来のAIアプリケーションの展望を広げています。プライバシーを重視し、高速な応答時間を求めるユーザーにとって、エヌビディアが提供するこのソリューションは、まさに時代のニーズに応えるものです。
*過去記事はこちら エヌビディアNVDA