CloudNative Days Tokyo 2021の発表資料です。 https://event.cloudnativedays.jp/cndt2021/talks/1207 補足資料 https://git.io/operator-bestpractice
CloudNative Days Tokyo 2021の発表資料です。 https://event.cloudnativedays.jp/cndt2021/talks/1207 補足資料 https://git.io/operator-bestpractice
1. なぜ 998244353 で割るのか? 最初はこのような設問を見るとぎょっとしてしまいますが、実はとても自然な問題設定です。 $998244353$ で割らないと、答えの桁数がとてつもなく大きくなってしまうことがあります。このとき以下のような問題が生じます: 多倍長整数がサポートされている言語とされていない言語とで有利不利が生じる 10000 桁にも及ぶような巨大な整数を扱うとなると計算時間が膨大にかかってしまう 1 番目の事情はプログラミングコンテストに特有のものと思えなくもないですが、2 番目の事情は切実です。整数の足し算や掛け算などを実施するとき、桁数があまりにも大きくなると桁数に応じた計算時間がかかってしまいます。実用的にもそのような巨大な整数を扱うときは、いくつかの素数で割ったあまりを計算しておいて、最後に中国剰余定理を適用して復元することも多いです。 なぜ 9982443
Advertisements TL; DR indexとdocument idの組み合わせてデータを管理し、不要なデータはindex単位で削除していく 公式で使用されている通り、時系列データを1日単位でindexを作る 古い不要なindexを1日単位で削除できるようにする index単位の処理は高速 document idもElasticSearchに任せ、こちらで指定しないほうが性能的に良い なので、つまり document idをユーザ側で指定することは非推奨 どこかに書いてあったはずですが失念しました。。。 その指定したdocument idのdocumentをupdateすることは非推奨 当然、upsertも非推奨 でも、必要に迫らせてやらざるを得ない場合もあります。 これをどうやるか?というお話です。 確認環境 docker-composeで環境を準備します。 kibanaのDe
Mercari Advent Calendar 2018 の5日目はSREチームの @catatsuy がお送りします。 メルカリではGoで書かれたproxy serverをサービスの各所で使っています。今回はGoでproxy serverを作るときにハマりそうな、標準ライブラリの挙動や特徴について紹介します。 本エントリーは2018/12/04現在の最新であるGo 1.11.2を元にして書きます。 Hostヘッダーはreq.Header.Set(“Host”, “example.com”)しても上書きできない https://github.com/golang/go/blob/e8a95aeb75536496432bcace1fb2bbfa449bf0fa/src/net/http/request.go#L1023 https://github.com/golang/go/blob/e8
Rustで DI (Dependency Injection)、してますか? 今日話題にするのはドメイン層でインターフェイスを定義してインフラ層でその実装を書くやつです。 例えばドメイン層で trait UserRepository を書いて、インフラ層で struct UserRepositoryImpl するやつです。 テストを書くとき、 struct UserRepositoryImpl はDBアクセスなどしてしまうので取り回しが悪いから、mock を作って fixture を入出力したいことありますよね。 Rustでそういうことやるなら mockall がオススメだよという記事です。 そんなに不満はないのですが、もしベターなやり方があったら記事末尾のコメントやTwitterやらもらえたら嬉しいです。 前職のFOLIO時代の同僚で現CADDiの むらみんさんの記事 に 外部通信のよう
ご覧いただきありがとうございます。次世代システム研究室、新卒の N.M と申します。 前回のブログ記事は GMO インターネットグループの新卒技術研修(GMO Technology Bootcamp)での成果物に関する紹介でしたので、実質今回が初投稿となります。仕事に活かせるような実用的な先端技術の研究してきたわけではなく題材選びに苦労しましたが、今回は個人的に勉強してみたいと思っていた MLOps を触ってみようというテーマで書かせていただきたいと思います。ご覧いただけると幸いです。 今回行ったこと ブラウザ上で手書き文字を認識するアプリを作ってみる そのアプリで用いている機械学習まわりのコードに kedro を導入してみる ちゃっちいちっちゃい MLOps を体験して勉強した気分になる 背景
This tutorial was originally contributed by Justin Johnson. We will use the Python programming language for all assignments in this course. Python is a great general-purpose programming language on its own, but with the help of a few popular libraries (numpy, scipy, matplotlib) it becomes a powerful environment for scientific computing. We expect that many of you will have some experience with Pyt
SpatiaLite is an open source library intended to extend the SQLite core to support fully fledged Spatial SQL capabilities. SQLite is intrinsically simple and lightweight: a single lightweight library implementing the full SQL engine standard SQL implementation: almost complete SQL-92 no complex client/server architecture a whole database simply corresponds to a single monolithic file (no size limi
「Google Colab」で「SentencePiece」を試してみました。 1. SentencePiece「SentencePiece」は、テキストを「サブワード」に分割するツールです。 「自然言語処理」の深層学習を行うには、テキストを何かしらの「トークン」に分割し、それを「ベクトル表現」に変換する必要があります。 以前は、「MeCab」の形態素解析を使ってテキストを「単語」に分割するのが一般的でした。しかし「単語」を使うのは実用上の問題点があります。語彙数が膨大になり、高頻度語彙のみに限定したとしても、低頻度語彙が捨てられ未知語として扱われることになります。 「SentencePiece」では「サブワード」を使ってこの問題を解決しています。はじめに、テキストを単語に分割し、各単語の頻度を求めます。次に、高頻度単語は1語彙として扱い、低頻度単語はより短い語彙に分割します。そして、語彙
3行で はじめに Sentencepieceとは subwordとは Sentencepieceでの取り組み SentencepieceとMeCabの比較 利用するデータセット 利用したコード 適当なTweetを分かち書きしてみる Tweet全部を分かち書きし、頻度順に並べてみる まとめ 注釈 3行で Sentencepieceの論文概要を説明した。 自身のTweetを用いて、SentencepieceとMeCabの分割点の違いを調べた。 Sentencepieceでは生文から生成された特徴的な分割が見られた。一方、今回のような少ない学習データでは上手く分割できない。 はじめに Sansan DSOC 研究開発部の齋藤です。 最近Sentencepieceの論文を読む機会があったので、論文の概要説明と、実際に使ってみようと思い立ちました。 前半で論文の説明を行い、後半でSentencepi
Amazon Web Services ブログ 新しいAWS Well-Architected Machine Learning Lensの紹介 この記事は、「Introducing the new AWS Well-Architected Machine Learning Lens」を翻訳したものです。 AWS Well-Architected Frameworkは、お客様のワークロードをベストプラクティスと比較するための一貫したアプローチを提供します。また、どのように改善すべきかの指針も含まれています。 機械学習(ML)アルゴリズムは、データのパターンを発見および学習し、将来のデータを予測する数理モデルを構築します。これらのソリューションは、病気の診断の改善、環境保護、製品やサービスの変革など、生活に革命をもたらします。 MLモデルが正確な結果を出すためには、入力データの質が重要です。
はじめに 必要に応じて検証環境の追加・削除などの管理をするのが面倒くさいので、PR作成時に検証環境を構築、PRマージ・クローズ時に検証環境を削除ができないか考えてみました。 今回の作成したGitHub Actions ワークフロー、Terraformなどはこちらのリポジトリにあります。 概要図 どのように実現したか 実現あたり、コンテナイメージのプッシュ、ECS サービスのデプロイはGitHub Actions、Terraformの実行はAWS CodeBuildで行うことにしました。 なぜTerraformの実行はCodeBuildを利用するようにしたかというと、CodeBuildはVPC内のリソース(今回の場合はAurora Serverless)にアクセスできるからです。 これによってアプリケーション、DBマイグレーション時に使用するMySQL ユーザーをTerraformで作成する
エンジニアリングマネジメントトライアングル エンジニアリングの話をする前に、プロダクトマネジメントトライアングルという言葉と聞いたことはありますか? それは、プロダクトマネジメントという言葉の定義、責任をまとめたグラフィックモデルのことです。これはプロダクトマネジメントを探求するために作られました。 かたやエンジニアリングマネジメントも組織やフェーズによって役割が違う、責任もさまざまということから、プロダクトマネジメントトライアングルと同じように思考を整理できるのではないかと考えました。*1 では、このトライアングルをエンジニアリングマネジメントで作るとどうなるのか。Engineering Manager Meetup の有志が作ったので紹介します。 エンジニアリングマネジメントトライアングル 中心にエンジニアリングを置いて、テクノロジー、プロダクト、チームでトライアングルを構成しています
Off-policy evaluation (OPE) aims to estimate the performance of hypothetical policies using data generated by a different policy. Because of its huge potential impact in practice, there has been growing research interest in this field. There is, however, no real-world public dataset that enables the evaluation of OPE, making its experimental studies unrealistic and irreproducible. With the goal of
はじめに 本記事は、アルゴリズムの一つである桁DPについて、入門者が疑問に感じる(というか筆者が実際疑問に感じた)ポイントに重点を置いて解説するものです。 筆者自身そこまで桁DPに詳しいわけではなく、むしろ最近覚えたぐらいなので、何かまずい部分があれば優しくご指摘いただけると嬉しいです。 この記事で特に重点を置くポイントは、次の通りです。 何故これでうまくいくのか 桁DPで数えているものは何か 初期条件はなぜこうなるのか 桁DPそのものの入門的解説としては、他にもけんちょんさん達の優れた記事がありますので、そちらも合わせてご覧ください。 http://torus711.hatenablog.com/entry/20150423/1429794075 http://drken1215.hatenablog.com/entry/2019/02/04/013700 https://pekempe
実行 インストールが完了するとvultureコマンドが使えるようになっています。そのコマンドを使って実行します。 全てのオブジェクトが使われている状態 定義されている全てのオブジェクトが使われているサンプルコードを作りました。 # -*- coding: utf-8 -*- USE = 'use' class Use(object): use_attr = 'use' def use(self, value): self.use_attr = value return self.use_attr def use(): Use.use(USE) if __name__ == '__main__': use()
Often users come to us with incidents of database crashes due to OOM Killer. The Out Of Memory killer terminates PostgreSQL processes and remains the top reason for most of the PostgreSQL database crashes reported to us. There could be multiple reasons why a host machine could run out of memory, and the most common problems are: Poorly tuned memory on the host machine. A high value of work_mem is
桁DPとは 桁ごとに分けて考える動的計画法です。 「1からNまでの整数について、条件を満たす数はいくつあるか?」「1からNまでの整数について、条件を満たす最大値は何か?」 というような問題で主に使えます。 Nについての制約が非常に大きくなるのが特徴で、O(logN)やO(1)でないと計算時間が間に合わない問題で使用されます。 桁DPの前に知っておくと良いこと 桁DPでは、「N以下の数を全て走査する」ことになりますが、以下のような場合分けを考慮しておくと分かりやすくなります。 例えば、N=63435 のような数であれば、 00000 ~ 59999 (\(6\cdot 10^4\) 通り)60000 ~ 62999 (\(3\cdot 10^3\) 通り)63000 ~ 63399 (\(4\cdot 10^2\) 通り)63400 ~ 63429 (\(3\cdot 10^1\) 通り)6
Amazon Web Services ブログ [AWS Black Belt Online Seminar]AWS Network Firewall 応用編1 資料公開 「AWS Network Firewall 応用編1」 の AWS Black Belt Online Seminar についてご案内させて頂きます。 視聴方法: 下記ページにて資料を公開いたしましたので、オンデマンドでご視聴いただけます。 動画はこちら 202110 AWS Black Belt Online Seminar AWS Network Firewall 応用編1 AWS Black Belt Online Seminar オンデマンド動画 コンテンツ 一覧 AWS サービス別資料 (すべての過去資料が閲覧できます) IT 知識レベル:★★★★☆ | AWS 知識レベル:★★★★☆ VPCの新機能であるMo
概要 この記事ではRust初心者が驚いたり混乱させられたりするようなRustの文法を10項目集めてみました。 これらの項目は知らないと理解できなかったりコンパイルエラーに悩まされたりする一見厄介なものたちなのですが、そのような直感的でない挙動を敢えてさせているところには重要な意味が込められていることが多いです。 そのため、これらの項目を通してRustが目指しているものや実現したい機能の一部を垣間見ることができると思います。 1. デフォルトの代入がムーブ Rustの最大の特徴が所有権の概念であることは有名ですが、それでもなお初心者殺しになるのがムーブです。 以下のコードがコンパイルエラーになるメジャーな言語は現状Rustくらいしか無いでしょう。 let mut a = vec![1, 2, 3]; let mut b = a; // ここでaの持つベクタの所有権がbにムーブされ、aは無効に
はじめにこんにちは、フューチャーにアルバイトとして参加中の中山です。 今日はアルバイトで参加しているプロジェクト内でAWSの利用料金をSlackに通知する仕組みを作成したので共有したいと思います。 私が参加しているプロジェクトでは、毎月AWSにいくらかかっているのか、加えてそれぞれのサービスは全体のコストの内どのぐらいの割合を占めているのか知りたいという話があり、今回AWSから利用額を取得しSlackに通知する仕組みを作る流れとなりました。 今回の記事では、実際に採用したAPIやサービスに加え、採用を検討したが実際には利用しなかったサービスなども交え、似たような仕組みを作ってみたいと思っている方に少しでも情報提供できればと考えています。 参考:今回のソースコード システム概要それでは実際にどのような仕組みで動いているか説明します。 図のように、 CloudWatchにより定時起動でLamb
計算量についてのお話です。対象は、プログラミング経験はあるが計算量のことを知らない初心者から、計算量のことを知っているつもりになっている中級者くらいです。 数式を見たくない人にとっては読むのが大変かもですが、深呼吸しつつ落ちついて読んでくれるとうれしいです。 それから、この記事が自分には合わないな〜と思ったときは、(別の記事を Qiita とかで検索するよりも)この記事の一番下の 参考文献 にある本を読むことをおすすめします。Amazon の試し読みで無料で読めます*1。 TL; DR 関数の増加度合いのことをオーダーと呼ぶよ 計算量は、入力サイズ(など)を受け取ってアルゴリズムの計算回数(など)を返す関数だよ その関数のオーダーについての議論がよく行われるよ オーダーを上から抑えるときは \(O\)、下から抑えるときは \(\Omega\) を使うよ オーダーを上下両方から抑えたいときは
Dataset Card for The Multilingual Amazon Reviews Corpus Dataset Summary Defunct: Dataset "amazon_reviews_multi" is defunct and no longer accessible due to the decision of data providers. We provide an Amazon product reviews dataset for multilingual text classification. The dataset contains reviews in English, Japanese, German, French, Chinese and Spanish, collected between November 1, 2015 and Nov
連載目次 前回は、「ビジュアライズ(可視化、視覚化)」というテーマの前編として、関数をグラフ化することによりモデルを可視化する方法を見ました。今回は後編です。収集したデータや分析結果を可視化するために、棒グラフやヒストグラム、散布図、ヒートマップなどを作成します。 今回の練習問題としては、3D散布図と個別の2D散布図を並べて描く例、回帰分析を行って散布図に回帰直線を重ねて描く例を取り上げます。もちろん、全て中学/高校までの数学の知識があれば作成できるプログラムです。グラフ化するデータの準備についてはある程度Pythonの経験がないと難しい部分もありますが、分からない部分については「おまじない」だと思ってサンプルコードをそのまま入力してもらって構いません。 見出し/図/リスト/脚注などの番号は、前編である前回からの続き番号となっています。
こんにちは、ISUCON11本選問題の作問を担当したtemmaです。普段はVTuberを見る活動をしています。この記事では、本選問題で改善対象となった「ISUCHOLAR」について、問題の概要と実際の競技の様子を解説します。 なお、本選問題は以下のメンバーで作問しました。 ・NTTコミュニケーションズ株式会社 ・kawase ・Osumi ・team takonomura ・takonomura ・ヤフー株式会社 ・karino ・takahashi ・hattori ・東京工業大学デジタル創作同好会traP ・hosshii ・temma ・toki ISUCHOLARとはISUCHOLARはどこかの大学で使われている学内システムです。シラバスを見たり、科目を履修したり、成績を確認したり何でもISUCHOLARを使って行われます。 ちなみに、現実の学内システムに不満があるわけでは無いです
Let’s compare the performance of all supported runtimes + 2 custom runtimes (Rust and GraalVM). Will compare cold start and warm. Source code is here: https://github.com/Aleksandr-Filichkin/aws-lambda-runtimes-performance. It requires the minimum local setup(almost all is Dockerized) NodeJs (14.x)Python (3.9)Go(1.x)Ruby(2.7).Net(3.1)Java (11)Rust(1.54.0)GraalVM(21.2)Disclaimer:All benchmarks were
はじめに RやPythonを用いて、(主として政治に関する)データ分析を行うために必要な基本的知識や技術を学びます。 正直なところ、ChatGPTやOpen Interpreterを使えばいいような気はしますし、もっとよいサイトはたくさんあります。 執筆者の土井翔平は北海道大学公共政策大学院および法学部・大学院法学研究科で国際関係論の研究と教育に従事しています。データ分析やプログラミングの専門家ではありません。 計量「政治学」とありますが、執筆者の専門の都合で政治に関する題材が多いという意味でしかありません。政治以外の社会科学を専門とする方にも役に立つ内容のはずです。 一橋大学で担当していた「国際政治の計量分析I」がベースとなっています(講義スライド) 昔のバージョンは暫定的にこちらにあります。本当は昔のバージョンの内容が古くなったために消したかったのですが、ありがたいことに何人かの方にご
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く