gooblogのアクセス解析ログを自動収集

せっかく使えるsheevaで、24時間稼動しているlinuxサーバの割りにこれまでsambaとcupsしか使っていなかったが、cronを回してgooblogのアクセス解析のログを自動で取得するようにした。

とりあえずテストということで、ログが保存されている11月1日分から昨日分までとってくる。
1ファイル1日分というのが微妙に使いにくい。毎日一回クリックする気がおきないから、1週間分くらいにまとめてファイルを出して欲しいところ。まぁ、面倒だからこそcronで回すんだけど。

結局ログのファイルを落として適当に整形したりまとめて、一ヶ月単位くらいでファイルにまとめるのが使いやすいか。

以下が作業メモ

まずは
$ w3m http://blog.goo.ne.jp/admin
で、ログイン状態を保持する、にチェックを入れてログイン。
次に、w3mを起動中に o をおして設定画面
随分下のほうの、「文書の標準の文字コード」をJapanese (Shift_JIS, CP932)に変更
ログの取得は
$ w3m “http://blog.goo.ne.jp/admin/showanalyze/8b?type=csv&mode=pv&date=20100210″ -dump >hogehoge
など
これを組み合わせたシェルスクリプトを組んでcronで回そうというのが今回のお話でした。
スクリプトとかコマンドとかを綺麗に書くのはどうするんだったかなぁ、、、。

コメントを残す