グーグルが提供するクラウドサービス「Google App Engine」(GAE)なら、誰でも無料でWebサービスを作れる。GAEとTwitterのAPIを使って、オリジナルのWebサービスを作ってみよう。環境構築の方法からサービスの公開方法まで、全5回で楽しく学べるWebプログラミング入門講座です。

http://d.hatena.ne.jp/intheflight/20090613/p1 リンク先の更新でTwitterから取得したデータをXMLパーサでパースして、データストアに格納するということをやっているわけだけど、こんな面倒なことしなくても、おれらにはJSONがあった! JSON使えばTwitterデータをパパッとデータストアに格納できることがわかったので、XMLをJSONに書き直しました。今回はその流れです。まずは、データモデルですが、それはそのまま流用できます。Twitterからのデータ取得にはJSONを指定します。 url = "http://twitter.com/statuses/mentions.json"あとは取得したJSONデータをPythonの辞書に変換し、そこから必要なデータをデータストアに格納するという流れになります。めっちゃ簡単。変換処理にはsimplej
前回 http://d.hatena.ne.jp/intheflight/20090613/p1 現在のなかさきBotは1時間毎にPostし、@_nkskされると常に「キュフフ♪」とReplyする単純なものです。これをもう少し複雑にしたい。せめて「おはよう」と言ったら「おはよう」と返してもらいたい。ということで次の目標はPostの中身を調べて、内容に合ったReplyを返せるようにします。内容に合ったReplyといっても返す言葉は定型句なので、それほど難しくありません。今回は「おはよう」と言ったら「おはよう」と返すことを目標とします。新しくクラスを作ったりはせずにNkskReplyクラスのget()を編集するだけです。get()の該当する送信部分だけを抜粋します。 url = "http://twitter.com/statuses/update.xml" statuses2 = db.Qu
前回 http://d.hatena.ne.jp/intheflight/20090611/p1 やっぱりBotらしく、話しかけられたら反応しなくちゃね!というわけでReply機能を追加します。まず必要なのがBot宛にReplyがあるか調べることです。これは定期的にチェックしなければいけません。そしてやはり反応は早いほうがいい。以上のことから、10分間隔でcronを用いてチェックすることにします。前回はデータを送信するという機能でしたが、今回はデータを受け取ってそれを処理しやすいように加工しなければいけません。具体的にはTwitterから送られたXMLデータをパースしてDatastoreに格納します。 最初にデータモデルを定義します。データモデルとは、GAE用のデータベースであるDatastoreに格納するときのデータ構造の定義です。いわゆるRDBのテーブル定義みたいなものです。これはTw
のっちフライデーのショックで一気に書き上げました(嘘)。Google App Engine(以下GAEと略)を用いて℃-uteのなっきぃをTwitterに召喚しました。なかさきBotです。 http://twitter.com/_nksk 今回はなかさきBotをどう作ったのかまとめて、チュートリアル的なものを書いてみました。かなり適当に作ってるので、ここ違うよ!とか、こう書けばいいんじゃない?みたいなコメント大歓迎です。GAEの入門編は以下のリンクを読んでください。ほとんどそこと同じことを書いてます。 http://code.google.com/intl/ja/appengine/docs/python/gettingstarted/ 開発環境はWindows XPで、言語はPythonで書いてます。初Pythonでしたけど難しくなかったですよ。準備として、まずPythonのダウンロード
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く