Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
Sakana AI Blog

Sakana AIで働く研究者インタビュー(2025年3月メディア掲載)


江戸時代の古文風テキストで会話できるチャットボット「からまる」を公開:過去の書物の継続学習による大規模言語モデルの開発


「からまる」はSakana AIが開発した江戸古文風チャットボットです。現代日本語で質問すると、江戸時代の世界観と当時の古文風テキストで回答してくれます。学術プロジェクトと協力して、江戸時代の書物から約2500万文字のデータセットを構築し、大規模言語モデルを継続学習しました。からまるのデモはこちらでお試しいただけます。

Sakana AI Wins Award at US-Japan Competition for Defense Innovation


Sakana AI proposed new AI solutions in both the biodefense and disinformation countermeasure categories at a competition jointly hosted by the US Department of Defense’s Defense Innovation Unit (DIU) and the Japanese Ministry of Defense’s Acquisition, Technology & Logistics Agency (ATLA). Out of 60 companies from around the world who participated, Sakana AI won one of the three awards at the competition.

Sakana AI、防衛イノベーションの日米コンペティションで受賞


Sakana AIは、日本の防衛装備庁と米国国防総省傘下のDefense Innovation Unit(DIU)が主催するチャレンジで、バイオディフェンスと偽情報対策の両部門で新たなAIソリューションを提案し、世界60社の応募の内、日本企業として唯一の受賞を果たしました。(テレビ東京、2025年3月19日)

Sakana AI super-powers AI reasoning using Japan’s own Sudoku Puzzles


Can you solve the Sakana AI Sudoku Puzzle?

世界初、100%AI生成の論文が査読通過 「AIサイエンティスト」が達成


The AI Scientist Generates its First Peer-Reviewed Scientific Publication


A paper produced by The AI Scientist-v2 passed the peer-review process at a workshop in a top international AI conference.

Sakana AI「事業開発本部」を立ち上げ:AI技術のビジネス展開に着手


Sakana AI事業開発チームのメンバー

TAID: A Novel Method for Efficient Knowledge Transfer from Large Language Models to Small Language Models

TAID has been accepted as a Spotlight Paper at ICLR, a top international conference in machine learning. With TAID, we have developed TinySwallow-1.5B, a Japanese small language model that achieves state-of-the-art performance among models of similar size.

The AI CUDA Engineer: Agentic CUDA Kernel Discovery, Optimization and Composition

新手法「TAID」を用いた小規模日本語言語モデル「TinySwallow-1.5B」の公開

新手法「TAID」によって学習された小規模日本語言語モデル「TinySwallow-1.5B」は、同規模のモデルの中で最高性能を達成しています。さらに、小規模のため、APIなどを介さずお手元のスマートフォンやPCで完結してチャットが可能です。ウェブアプリまたは、GitHubにてお試しいただけます。

Transformer²: Self-Adaptive LLMs

Automating the Search for Artificial Life with Foundation Models

An Evolved Universal Transformer Memory


Population-based Model Merging via Quality Diversity

多様性を重視した集団ベースのモデルマージ

Sakana AIはLLMエージェントの集団を生み出す新技術「CycleQD」を開発しました。CycleQDは多様性に着目した進化的計算とモデルマージに基づいており、知識やスキルを忘却せず蓄積していく「生涯学習」の実現への第一歩です。

シリーズA【続報】:日本のリーディングカンパニーから資金を調達、日本市場での事業展開を加速


Announcing Our Series A


「AIサイエンティスト」: AIが自ら研究する時代へ


The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery


進化的モデルマージによる視覚言語モデルの新たな能力の獲得 複数の画像を扱える日本語視覚言語モデルを公開


日本の美を学んだAI:浮世絵風画像生成モデルEvo-Ukiyoeと浮世絵カラー化モデルEvo-Nishikieを公開


今回公開するモデルは、プロンプトから画像を生成するEvo-Ukiyoeと、古典籍の挿絵をカラー化するEvo-Nishikieモデルです。これらのモデルが、歴史や文化を学ぶための新たなコンテンツ作成に利用され、浮世絵に関する興味を増すことにつながり、日本や世界の人々が浮世絵や日本文化に興味を持つきっかけを生み出すことを期待しています。

Can LLMs invent better ways to train LLMs?


画像生成モデルへの進化的モデルマージの適用
日本語対応した高速な画像生成モデルを教育目的で公開


日本語プロンプト対応の高速画像生成モデルEvoSDXL-JPで生成した画像の例。プロンプトは「可愛いゾウの編みぐるみ」、「ラーメン、浮世絵、葛飾北斎」、「折り紙弁当」、「(下町ロケット、東京サラリーマン)、浮世絵」など

Evolving New Foundation Models: Unleashing the Power of Automating Model Development


進化的アルゴリズムによる基盤モデルの構築



自動的で効率的な基盤モデル開発に向けて

We received a supercomputing grant from the Japanese government


We raised $30M to develop nature-inspired AI in Japan


Career Opportunities


Joining Sakana AI.