12TBメモリを搭載した5兆パラメータLLM推論システムSN40Lが今すぐ使える
2024.03.12
Updated by Ryo Shimizu on March 12, 2024, 09:03 am JST
2024.03.12
Updated by Ryo Shimizu on March 12, 2024, 09:03 am JST
昨日から、神戸で第30回言語処理学会(NLP2024)の年次総会が始まった。
かつて日本は人工知能分野で世界最先端を行くと言われていた。その主力は自然言語処理(NLP;Natural Language Processing)であった。
なぜ日本が人工知能分野で世界をリードしていたかと言えば、日本語という特殊な言語の性質にある。日本語は漢字仮名交じり文であり、外来語であるはずのアルファベットやそのほかの言葉や記号が巧みに入り組む構造で、欧米の言語では最も基本的な「単語と単語の区切り」さえ区別がつかないため、特に「形態素解析」という分野が進歩したのだ。
だが皮肉にも、形態素解析に特化した進化をしていたため、ディープラーニングには乗り遅れる形になってしまった。
昨年の言語処理学会はGPT4出現直後で、発表される全ての研究成果が色あえて見えてしまったと聞いた。
それに反転するように、今年の言語処理学会は大規模言語モデル(LLM;Large Language Model)百花繚乱といった感じで、従来からの研究もうまく融合していた。
ふと、筆者が産総研の辻井先生とパネルディスカッションを企画し、2017年の人工知能学会の全国大会での講演に「深層学習」という言葉を入れようとしたら大会運営本部から「深層学習のようないかがわしい単語を入れると学会の品位が下がるからせめて機械学習にしてくれ」というようなクレームがついたことを思い出した。その頃は日本の「人工知能研究者」と言えば圧倒的に非ニューラルネット派、いや、むしろ「反ニューラルネット派」が大多数で、機械学習はかろうじて認められていたものの、深層学習をやる人間は冷飯を食わされていた。
その会場の片隅で、というか、会場の「隣のビル」で、ひっそりと会議室を押さえていたのがシリコンバレーの雄、SambaNova社だった。
SambaNova社は本欄でも何度か取り上げたことがあるが、独自の再配置可能データフローユニット(RDU;Reconfigurable Dataflow Unit)という半導体から、それを搭載したスーパーコンピュータとソフトウェアの開発まで一気通貫に行うフルスタックAI企業である。
SUNマイクロシステムズでNiagaraチップなどの設計を担当したアーキテクトらが中心となって作り上げたこのアーキテクチャは、今回4世代目にアップデートしていた。
今回のアップデートの目玉は、新たに512GBのHBM3メモリを中間キャッシュに置き、12TBのDDR5メモリを配置することで史上空前の5兆パラメータを扱うシステムを構築したこと。
これにより、Composition of Experts(CoE)というSambaNova独自のAIサービスソリューションが実現した。
CoEとは、単一で巨大なモデルを動かすのではなく、小さな専門家モデルを同時に複数使い分けることによって利便性と安全性を高めるシステムだ。
SambaNovaは原則としてオンプレミス運用を採用している。つまり、GPT4やClaude-3のようにクラウドの向こう側の手が出せないところにシステムがあるのではなく、自社のデータセンターやサーバールームに設置して機密性の高いデータを扱えるようにしている。
これにより、自社で独自にファインチューニングしたLLMと、KararukiやSwallowなどの既存のLLMをCoEによって組み合わせて運用できるようになる。
既に大手コンサルティング企業や米国の研究所などに導入実績があり、日本国内ではスーパーコンピュータ富嶽に採用されたりソフトバンクに採用されたなどの実績がある。
今回一番驚いたのは、このSambaNovaのSN40Lを、「誰でも」「無料で」試せるようになったということだ。
SambaNovaは今回、二つのサービスを無料公開した。
一つ目はtrysambanovaというサービスで、三つのSambaAppsを試すことができる。
SambaChatは、54のLLMを組み合わせたCoEを体験できる。ただし、今のところルーティングは一段のみなので入力した文言によっていくつかあるLLMの中から一つが選択されて答えが出る。日本語も使えるが、まだそこまで強くはない。モデルは全てオープンソースのものを使用しており、代表的なアーキテクチャならそのままhuggingfaceから持って来れるという。
FinSharokは財務分析AIで、会社名を指定して質問することができる。元になっているのは米国の上場企業の年次レポートだ。
例えばNVIDIAについてこの会社の持つ潜在的な リスクについて聞いてみる。
このように返ってきた
年次報告書で提供される情報に基づくと、企業に対する主なリスクは次のとおりです。
サプライヤーや委託製造業者での労働災害。重傷や死亡、会社の事業の中断、評判の低下につながる可能性があります。
新型コロナウイルス感染症(COVID-19)のパンデミックなどのパンデミックを含む、世界経済や消費者製品の需要への影響により、当社に悪影響を及ぼし、将来的に重大な悪影響を与える可能性のある主要な公衆衛生問題。
同社のサプライチェーン、販売および流通チャネルに混乱が生じ、その結果、現行製品の供給が中断され、顧客への新製品の納品に遅れが生じます。
輸送や物流管理のアウトソーシングにより、生産や流通の管理が低下し、製造される製品や提供されるサービスの品質や量に悪影響を及ぼす可能性があります。
サプライヤーの行動規範への違反。会社の事業、経営成績、財務状況、株価に重大な悪影響を与える可能性があります。
政治的出来事、貿易およびその他の国際紛争、戦争、テロ、自然災害、公衆衛生問題、労働災害、その他の事業中断。これらは国際商取引および世界経済に損害を与えたり、混乱させたりする可能性があり、会社や企業に重大な悪影響を与える可能性があります。その顧客、サプライヤー、委託製造業者、物流プロバイダー、販売代理店、携帯電話ネットワーク通信事業者、その他のチャネルパートナー。
投資および買収取引には、経営陣が現在の業務から逸脱すること、予想を超える負債や費用、新しい事業、地域、または国での運営に関連する経済的、政治的、法的および規制上の課題など、重大なリスクと不確実性が含まれる可能性があり、不適切資本利益率、有形および無形資産の潜在的な減損、および重大な償却。
これらのリスクは、会社の事業、評判、業績、財務状況、株価に対する潜在的な脅威として強調されており、会社の戦略目標を達成する能力に重大な悪影響を与える可能性があります。
DocSageはPDFを読ませて内容について質問できる。いわゆるRAGである。
この三つのアプリケーションとは別に、LLMマニア垂涎の環境が用意されている。
それがAPIまで解放されたSambaVerseだ。
これは最大6個のLLMに対して「同時に」質問できる。
6つのウィンドウから続々と答えが出てくる様はまさに圧巻で、「すごいコンピュータがある!」という感動が伝わってくる。
これは単独のSN40Lで動作していて、12TBという大容量を活かして、3Bモデルから70Bモデルまで全部で54種類のモデルが「同時に動いている。
しかもAPIまで解放されているので、「llama2とElyza7Bに同時に質問を出して、その質問結果をもとにプロンプトチューニングしてFalcon70Bに投げる」といった高度なCoTをするプログラムを簡単に書いて試すことができる。「誰でも」だ。
本当のことを言うとこんなことを教えたくない。なぜならこのことが知られれば、ここに人々が殺到してしまいサービスがパンクしてしまう可能性があるからだ。
ただ、SambaNova社としては自社のシステムの実力を客観的に証明したいのだろうと思う。
理論上は、並列実行されている54のLLM全てにクエリーを投げて、その結果を評価したり、組み合わせたりすることも可能だ。
普段ビクビクしながらGPT4のAPI利用料金を払ってる身からすると、とんでもない大盤振る舞いなのである。
と言うわけで、少しでもLLMに興味がある人なら、今すぐSambaVerseを使ったほうがいい。
新しい世界が見えるかもしれない。
おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)
登録はこちら新潟県長岡市生まれ。1990年代よりプログラマーとしてゲーム業界、モバイル業界などで数社の立ち上げに関わる。現在も現役のプログラマーとして日夜AI開発に情熱を捧げている。