タグ

ログに関するkimutanskのブックマーク (13)

  • サービス改善はログデータ分析から

    2014/09/09に行われた『サーバ/インフラエンジニア養成読 ログ収集〜可視化編』 出版記念!執筆者が語る大講演会! での発表資料です。 http://eventdots.jp/event/137658Read less

    サービス改善はログデータ分析から
    kimutansk
    kimutansk 2014/09/12
    確かにとりあえず可視化してみることで、想定していた分析が前提から覆ったりとか、ありますよね・・ まずやってみるのは大事です。
  • Fluentdのお勧めシステム構成パターンについて発表しました - Y-Ken Studio

    2014年9月9日開催の『サーバ/インフラエンジニア養成読 ログ収集〜可視化編』 出版記念!執筆者が語る大講演会!にて発表してきました。 今回は「Fluentdのお勧めシステム構成パターン」というタイトルで、ユースケース毎にどのようなシステム構成をすると運用しやすいかのノウハウをお話しさせていただきました。 また、パネルディスカッションではラジオ番組のようなスタイルで、モデレータに @naoya_ito(伊藤直也氏)をお招きして行い、Kibana以前の可視化はどうしていたの?など、ざっくばらんなトークが出来てとても楽しい経験でした。 発表資料 今回は書籍に書かれた内容をざっとおさらいしつつ、システム構成パターンについて解説しました。 発表資料はSlideshareにアップしております。 Fluentdのお勧めシステム構成パターン 書籍 書はWEB+DB Pressを取り扱う書店のほか、

    Fluentdのお勧めシステム構成パターンについて発表しました - Y-Ken Studio
    kimutansk
    kimutansk 2014/09/12
    Fowarder/Aggregator/Processor/Watcherという切り分けあたりはFluentdで無くても使える考えですね。
  • カスタマイズ済みのApacheログ書式もパースする Apache::Log::Parser の話 - たごもりすメモ

    さて、Perlといえばテキスト処理、テキスト処理といえばPerlですね。そしてこのビッグでデータな現代においてテキスト処理といえばログの処理に決まっています。 ログの処理といってもいろいろですが、もちろん強く逞しく生きる現代っ子の我々は以下のようなログを扱います。 Apacheのログ Apacheのログなんだけどいくつかの書式が混ざってたりする combined に当然いろいろデータが足してある LTSVってなんですか? そのような素敵な問題を解決するためのモジュールがCPANにあります。Apache::Log::Parserです。 あっ、そのページはダメ、こっち、こっちな。 Apache::Log::Parser Apache::Log::Parserは内部に2種類の解析器を備えており、パーサを初期化するときにどちらかを選びます。それぞれ以下のように動作します。 fast mode Ap

    カスタマイズ済みのApacheログ書式もパースする Apache::Log::Parser の話 - たごもりすメモ
    kimutansk
    kimutansk 2013/12/10
    LTSV重要ですよねぇ・・・やはり。ただ、そうでない場合の手段も必要なのも確か。他言語はともかくperl走りませんでした。
  • Android:リモートでログを取得するPhoneHome - ワザノバ | wazanova

    http://mattspitz.me/post/69143620992/phonehome-remote-logging-for-android シンプルなビデオメッセージのAndroidアプリHootを提供しているMatt Spitzがリモートでログデータを取得するPhoneHomeをオープンソースで提供しています。 Hootは、5つのAndroid OSバージョンにわたり、1,600種のデバイスで利用されている。カメラ、ライトセンサー、オリエンテーションセンサーと、ハードウェアをかなり使うアプリなので、クラッシュや、ビデオ再生時に向きが変わったり、はたまたビデオが6に複製されたりと、不思議な事象が続いている。 フィードバックをくれた友人から端末を借りてログを取ってるが、せいぜい20種ほどの端末しかカバーできなくて、スケールしない。リモートでログを取得するサービスも調べてみたが、

    kimutansk
    kimutansk 2013/12/10
    専用のロガーを設けることでAndroidのログをリモートで収集可能になったと。アプリケーション基盤としては重要な機能ですねぇ
  • AWS re:Invent2013参加レポート #3 新サービス AWS CloudTrail | DevelopersIO

    コンプライアンスとガバナンスのためのログ保存 AWS CloudTrailは、コンプライアンスとガバナンスのためのロギングサービスです。AWSの利用に関してAWS管理コンソールやAPIからアクセスログを取得することができます。これはエンタープライズ向けに非常に重要なサービスで、アクセスログをエビデンスとしてS3やGlacierに保存することができます。 サインアップ 現在、北米など一部の地域のみの提供ですが、そう遠くない未来に東京リージョンにも登場するでしょう。以下のURLからサービス開始をします。 AWS CloudTrailのワークフロー ここでは、CloudTrailのワークフローについてご紹介します。 AWS管理コンソール、AWS CLI、APIなどを使ってアクセスします。ユーザー操作ログが指定されたS3バケットに保存されます。 オプションとして、Amazon SNSによる通知を行

    AWS re:Invent2013参加レポート #3 新サービス AWS CloudTrail | DevelopersIO
    kimutansk
    kimutansk 2013/11/14
    AWS 横断のロギングサービスと。基盤のログが集約されるのは大きいですね。
  • Amebaにおけるログ解析基盤Patriotの活用事例

    8. 8 Amebaのログ解析基盤:Patriot • Amebaのサービス共通のログ解析基盤 • Ameba Technology Laboratoryで開発・運用 • サービスのユーザ行動の分析 • レコメンド等の大規模データ活用による機能の提供 • Hadoopクラスタ上に構築 • • • • HDFSにログデータを集約 Hive/MapReduceを用いた集計 HBaseを用いて処理結果を活用 Flumeを用いたデータ収集 10. 株式会社サイバーエージェント これまでの経緯 • 2010年 7月: 初期リリース (CDH3b系) • 2011年 3月: CDH3u0にアップグレード 9月: 独自開発のワークフロースケジューラ、サマリDBとしてHBaseを導入 • 2012年 5月: スマートフォンプラットフォーム向けPatriotの構築 (CDH3u3) 10月: ログ収集にFl

    Amebaにおけるログ解析基盤Patriotの活用事例
    kimutansk
    kimutansk 2013/11/12
    確実に出来ることを積み重ねて作られたログ解析基盤のようですね。構成要素の進化のおかげで基盤も進化するというサイクルが回っているように読めますが・・
  • 1分1秒を争う障害対応のためのリーダブルコード

    Ohotech 特盛 #5で発表した内容です。 ブログで幾つか補足をしています。 http://stknohg.hatenablog.jp/entry/2013/10/28/002943

    1分1秒を争う障害対応のためのリーダブルコード
    kimutansk
    kimutansk 2013/10/26
    こういうの、どの言語/FRWを使っても変わらず重要ですよね・・
  • ログのフォーマットやparse処理についてつらつら書いてみる。 - wyukawa's diary

    ある程度構造化された半構造化ログのパターンとしては以下があると個人的には思ってる。 Apacheのcombined ログフォーマットや独自フォーマットなどである程度決まったフォーマットで保存されておりHuman Readableだけどログのparseに正規表現が必要なもの。 アプリで扱っているモデルをそのままMessagePack, Protocol Buffersなどの形式でシリアライズしたもの。Machine ReadableではあるけどHuman Readableではない。 モデルを分解してkey-value形式でJSONやLTSVなどの形式で保存されており(上記1ほどでは無いにしろ)Human Readableであり(上記2ほどでは無いにしろ)Machine Readableでありログのparseに正規表現が不要なもの 個人的な意見として正規表現を使うのは*.txtのような比較的単

    ログのフォーマットやparse処理についてつらつら書いてみる。 - wyukawa's diary
    kimutansk
    kimutansk 2013/08/05
    ログのバイナリ方式はやったことありませんが・・・ KeyValue方式は変換の手順さえ確立すればかなり使いやすかったです。
  • Cassandraサーバのディスク容量減少アラートが飛んできた!ってときにどう対処するか - oranie's blog

    乗るしか無い、このビッグウェーブに。 (このエントリとこのエントリの三番煎じです。) - 追記 Cassandraはデータ領域のDisk使用量が50%でクリティカルと記載しましたが、いきなりズドンと落ちるとかでは無く、compactionを実行した時にテンポラリーファイル作成します。これは対象のSSTableのサイズに依存します。で、このテンポラリーファイルが作成できなくなる可能性がある閾値が50%です。 http://wiki.apache.org/cassandra/CassandraHardware_JP から引用 MemtableSSTableで述べているように、コンパクションは最悪の場合、一時的にひとつのボリューム(つまりデータディレクトリ)に対して最大そのデータと同じだけの空き領域を要求します。 - まずCassandraでDisk空き領域が減少する可能性があるのはほぼ2つ。ア

    Cassandraサーバのディスク容量減少アラートが飛んできた!ってときにどう対処するか - oranie's blog
    kimutansk
    kimutansk 2013/07/30
    「Cassandraはデータ領域のDisk使用量が50%でクリティカル」コンパクションあるプロダクトは似たようなノリですからねぇ
  • Fluentdの仕組み -バッファ機能でログ収集漏れを防ぐ- - Tech-Sketch

    OSSのログ収集管理ツールFluentdを用いてログを統合管理している場合の懸念点として、ログの収集漏れが考えられます。 Fluentdでは、バッファ機能を活用することでログを収集漏れすることなく確実に収集することができます。 このバッファ機能のメカニズムを理解すべく動作検証した結果を紹介します。対象とするFluentdのバージョンは0.10.30です。 Fluentdとは Ruby実装のOSSのログ収集管理ツールです。 Fluentdは、Input、Buffer、Outputの3つのコンポーネントで実現されています。 様々な場所からログを収集、JSON形式に変換し(Input)、蓄積(Buffer)、様々な出力先にデータ出力(Output)します。 例として、あるサーバ(server01)のApacheのアクセスログを別のサーバ(server02)内にファイルとして出力する場合

    kimutansk
    kimutansk 2013/06/23
    送信時失敗の時の挙動がわかりやすいですねぇ。
  • logbackを使う - clash_m45の開発ブログ

    今まではJavaでログ出力といえば、log4jだったが、最近ではlogbackも使いやすくなっている。 [追記] logbackはintra-martで採用されたりしているので既にかなりメジャーであると言える。 http://www.intra-mart.jp/apilist/v70/doclet/im_commons/jp/co/intra_mart/common/platform/log/rolling/ExtendedTimeBasedRollingPolicy.html [追記-終] logbackでログをファイル出力する場合は下記のAppenderクラスを使う。 FileAppender - ファイルへ出力する。 RollingFileAppender - FileAppenderを継承し、ログローテーションを提供する。 詳細はリンクを参照。 logbackではログローテーション

    logbackを使う - clash_m45の開発ブログ
    kimutansk
    kimutansk 2013/06/19
    LogBack、「複数のJVMによる同じログファイルへの書き込みをサポートしている」が、prudent設定が必要?ただ、性能的にはどうでしょうか。
  • あなたの/var/log/messages、データ紛失していませんか?

    今回は、Linuxサーバのログについての話です。 環境はCentOS 6.4です。 ログが捨てられている? ログファイルの /var/log/messages でこのようなメッセージを見つけました。 Jun 10 14:31:01 www rsyslogd-2177: imuxsock begins to drop messages from pid 573 due to rate-limiting なんだろうと思って、調べみました。 これは、rsyslogのrate-limitingという機能で、rsyslogが扱っているログファイルのメッセージが捨てられてしまっているという事がわかりました。 デフォルトでは200行まで出力すると、その後が捨てられるみたいですね。 大事なログが捨てられてしまっているとしたら困るな。。。 ということで、ログの切り捨てをしないように設定してみました。 rsy

    あなたの/var/log/messages、データ紛失していませんか?
    kimutansk
    kimutansk 2013/06/15
    結構あっさり消えちゃうんですね。溢れそうな場合はきちんと設定しておくとしましょう・・・
  • Javaライブラリを配布する際のログ周りにおける配慮と実践 - Kengo's blog

    2020-07-22更新: 以下の投稿で情報をアップデートしています。 https://blog.kengo-toda.jp/entry/2020/07/21/223136 いつも購読させていただいている id:teppeis さんのブックマークに以下のエントリが流れてきて、なるほどこいつはたしかに厄介だと思いました。 javaのロガーが多すぎて訳が解らないので整理してみました - 文系プログラマによるTIPSブログ ただSLF4Jが最も先進的かつ著名なインタフェースである以上、配布側としてはSLF4Jを使いつつ問題を解決したいところです。他のインタフェースを使ったりオレオレ実装を使ったりしてしまうと、それこそユーザの自由度を奪ってしまう形になります。 実際、SLF4Jを配布パッケージに含めないという簡単な解決法がありますので、簡単に紹介します。悲劇を繰り返さないためにライブラリ開発者がす

    Javaライブラリを配布する際のログ周りにおける配慮と実践 - Kengo's blog
    kimutansk
    kimutansk 2013/03/17
    これは確かに。SLF4Jを個別にexcludeする定義に出くわしたことがあります・・・ それを使う側に求めないというのは重要ですよね
  • 1