中身がない。 こういう、CUDAなりPyTorchの高速化って、LLMにぶっこんで高速化できるの?表とチャートはそれらしいけど、アルゴリズムっていえるような何かが書かれているわけではない。僕が査読者だったらこれぐらいのことはするなあ…と思って以下手を動かしてしまった。根本的に間違ってたらゴメン。 (修正された)論文へのコメントについては最後に述べます。 なんだか査読してるのと同じ感じになってきたな…。 https://pub.sakana.ai/static/paper.pdf The AI CUDA Engineer & Archive主著者はRobert Langeさん。秋葉さんとかは著者に入ってない。 If you use the AI CUDA Engineer or the archive in your work, please cite the following paper
