アメリカン・エキスプレス。たとえば、空港からスーツケース無料配送

2008年07月05日

Webalizerでアクセスログを解析する

Webalizerでアクセスログを解析する

 生のログはとても見にくい。見にくいだけじゃなく、いくらがんばって見つめてもアクセスの傾向など見えてこない。だが、 解析ツールを使うとどのページへのアクセスが多いかとか、どこを経由して自分のサイトへアクセスしてきたかといった情報が一目で分る。 その結果をもとにコンテンツを見直せば、アクセスを増すためのヒントになるだろう。

 解析ツールといってもいろいろあるが、 フリーのツールとしてはAnalogWebalizerの2つが有名だ。 この中でapt-getで簡単にインストールできるWebalizerの使い方を見ることにしよう。 Webalizerをインストールするには「apt-get install webalizer」 だけで大丈夫。もし「パッケージwebalizerが見つかりません」と言われたら、 「apt-get update」を実行してからもういちどやりなおす。

# apt-get update
# apt-get install webalizer

Webalizerを実行する

 apt-getでインストールしたWebalizerは特に設定せずとも、コマンドプロンプトで「webalizer」 と打ち込むだけで実行できる。すでに標準的な設定がなされているので、 Apacheのhttpd.confでログやドキュメントのディレクトリを変更していないならそのまま動かせる。
 正常に動くとアクセスログを読み込んで、次のように「××レコードありました」とメッセージが表示される。

# webalizer
Webalizer V2.01-10 (Linux 2.4.27-0vl7) Japanese(EUC)
ログファイル ―  /var/log/httpd/access_log.1 (clf)
作成ディレクトリ: /home/httpd/html/webalizer
ホスト名 ―  'localhost.localdomain'
ヒストリファイルが見つかりません...
以前の実行データが見つかりません...
現在の実行データを保存しています... [02/06/2005 01:58:56]
月別レポート作成 ―  2005年 2月
総合レポートの作成
ヒストリ情報の保存...
67 レコードありました.  処理時間: 0.18 秒
#

Webalizerの解析結果を見る

 Webalizerの解析結果は「/home/httpd/html/webalizer」ディレクトリに出力される。つまり、 httpdのドキュメントディレクトリの中にある「webalizer」というディレクトリだ。ブラウザに 「http://www.mydomain.com/webalizer/」のようにURLを打ち込むと解析結果を見られる。

 項目の概要を見てみよう。ぱっと見ただけでは「ヒット」「ファイル」「ページ」の違いは分からないはず。 それぞれの項目はこんな意味を持っている。よく「ヒット数」という言葉を聞くけれども、実際の解析ではあまり意味を持った数字ではない。 むしろ「ページ」「訪問」あたりが重要になってくる。

 

ヒット サーバーに対するリクエストのすべて。存在しないファイルへの要求や、 ユーザーのキャッシュに入っていて送信はしなかったファイルも含まれる。
ファイル ユーザーからの要求にこたえて実際に送信を行ったファイルの数。ヒットが入力の数とすれば、ファイルは出力の数になる。
ページ ページの数。HTMLファイルのほか、CGIやPHPが生成したページもそれぞれカウントされる。 画像などのファイルは含まない。
訪問 サイトを訪問したユーザーの数。同一IPアドレスからリクエストがあった場合、30分以内であればカウントされない。 30分を超えると新規訪問と見なされる。
サイト いくつのIPアドレスからリクエストを受け取ったか。 異なるユーザーからのアクセスでも同一IPアドレスからであれば1つとしてカウントされる。
キロバイト サイトが送信したデータの総量。ログの中に記録された各ファイルのサイズを合計したもの。

 

Webalizerを設定する

 標準のままでもWebalizerは動いてくれるが、ディレクトリを変更していたり、 集計の方法を変更したいときは設定ファイルを編集する必要がある。Webalizerの設定ファイルは 「/etc/webalizer.conf」だ。設定項目の数はとても多いので、 その中から重要そうなものをピックアップしよう。

LogFile /var/log/httpd/access_log.1
  ログファイルのディレクトリとファイル名を指定する。
  最新のログを解析するならaccess_logを指定する。
OutputDir      /home/httpd/html/webalizer
  Webalizerが出力するファイルの場所を指定する。
  ブラウザで閲覧できる場所にすること。
Incremental     yes
  古い情報を残したまま新しい情報を追加していく。
  「No」にするとログが消えると解析結果も消えてしまう。
PageType        htm*
PageType        cgi
#PageType       phtml
#PageType       php3
#PageType       pl
  上の表にある「ページ」として見なすファイルの拡張子。
  PHPなどを使っているなら該当する拡張子を追加する。
#DNSCache       dns_cache.db
  ログのIPアドレスからホスト名を逆引きするときに、
  DNSデータをキャッシュすることで高速化する。
  Vine LinuxのWebalizerでは逆引きはできない。
#TopSites        30
#TopKSites       10
#TopURLs         30
#TopKURLs        10
#TopReferrers    30
#TopAgents       15
#TopCountries    30
#TopEntry        10
#TopExit         10
#TopSearch       20
#TopUsers        20
  月別ページでの集計結果を何位まで表示するか。
  「0」にするとその項目は表示されなくなる。
#AllSites       no
#AllURLs        no
#AllReferrers   no
#AllAgents      no
#AllSearchStr   no
#AllUsers       no
  各項目についてすべての記録を表示する。
  「yes」にするとそこ項目についての別ページが作られる。
#HideSite       *mrunix.net
#HideSite       localhost
#HideReferrer   mrunix.net/
  集計結果に含めたくないサイトを登録する。
  自分のサイトを指定しておくと集計はされない。
HideURL         *.gif
HideURL         *.GIF
HideURL         *.jpg
HideURL         *.JPG
HideURL         *.png
HideURL         *.PNG
HideURL         *.ra
HideURL         *.zip
HideURL         *.gz
HideURL         *.Z
HideURL         *.tgz
HideURL         *.bz2
HideURL         *.lha
HideURL         *.patch
HideURL         *.diff
HideURL         *.rpm
HideURL         *.deb
  集計結果に含めたくないファイルの拡張子を指定する。
  標準では画像ファイルや書庫ファイルが指定されている。
#GroupReferrer  yahoo.com/      Yahoo!
#GroupReferrer  excite.com/     Excite
#GroupReferrer  infoseek.com/   InfoSeek
#GroupReferrer  webcrawler.com/ WebCrawler
  リンク元のURLを1つのグループとして扱う。
  どの検索エンジンから訪問があったかを見るときに便利。
SearchEngine    yahoo.com       p=
SearchEngine    altavista.com   q=
SearchEngine    google.com      q=
SearchEngine    eureka.com      q=
SearchEngine    lycos.com       query=
SearchEngine    hotbot.com      MT=
SearchEngine    msn.com         MT=
SearchEngine    infoseek.com    qt=
SearchEngine    webcrawler      searchText=
SearchEngine    excite          search=
SearchEngine    netscape.com    search=
SearchEngine    mamma.com       query=
SearchEngine    alltheweb.com   query=
SearchEngine    northernlight.com  qr=
SearchEngine    google.co.jp    q=
SearchEngine    yahoo.co.jp     p=
SearchEngine    yahoo.co.jp     q=
SearchEngine    infoseek.co.jp  qt=
SearchEngine    excite.co.jp    search=
SearchEngine    goo.ne.jp       MT=
SearchEngine    msn.co.jp       q=
SearchEngine    search.nifty.com Text=
SearchEngine    biglobe.ne.jp   q=
  リンク元が検索エンジンなら何のキーワードを指定したか。
  太字の部分も追加するといい。

 設定項目の中で「DNSCache」というのがあるが、コメントを外して有効にしてもエラーが出る。 Webalizerにはアクセスログの中にあるIPアドレスからホスト名を逆引きする機能があるが、Vine Linuxのapt-getでインストールされるWebalizerではこの機能が無効になっている。つまり、 IPアドレスのままでしか集計結果が表示されないわけだ。
 これを解決するには、httpd.confの中にある「HostnameLookups」の項目を「on」に変更し、 ホスト名の形でアクセスログを記録すればいい。 アクセスが多いサイトではアクセスがあるたびに逆引きが行われるのでサーバーに負荷がかかるが、 よほどの人気サイトでもない限り問題はないと思う。
 また、Webalizerのソースを入手し、DNSの逆引きを有効にしてコンパイルするという手もある。 configureにenable-dnsというオプションを追加すればいい。こちらのサイトからWebalizerの最新のソースを入手し、 次のようにしてコンパイルする。

$ tar zxfv webalizer-2.01-10-src.tgz
$ cd webaizer-2.01-10
$ ./configure --with-language=japanese --enable-dns
$ make
$ su -
# make install

過去のログをすべて解析する

 /etc/webalizer.confを編集したら、 いったん/home/httpd/html/webalizerに出力された集計結果のファイルをすべて削除し、新たに集計をやりなおす。 そのとき、古いログも残っていたらそれもすべて解析にかけるといい。
 アクセスログは毎週新しいファイルが作成され、古いファイルは名前を変えて過去4週分が保存されている(1つのファイルに記録する期間と、 保存する古いファイルの個数は/etc/logrotate.confで変更できる)。lsコマンドでログのディレクトリ (/var/log/httpd)を確認してみよう。

$ ls -l /var/log/httpd
合計 13492
-rw-r--r--    1 root     root       509767 Feb 10 01:28 access_log
-rw-r--r--    1 root     root      1085700 Feb  6 03:59 access_log.1
-rw-r--r--    1 root     root       867948 Jan 30 03:57 access_log.2
-rw-r--r--    1 root     root       985214 Jan 23 03:22 access_log.3
-rw-r--r--    1 root     root      1400689 Jan 19 23:35 access_log.4
-rw-r--r--    1 root     root        29393 Feb 10 01:27 error_log
-rw-r--r--    1 root     root       115741 Feb  6 04:02 error_log.1
-rw-r--r--    1 root     root       220857 Jan 30 04:02 error_log.2
-rw-r--r--    1 root     root       100044 Jan 23 11:31 error_log.3
-rw-r--r--    1 root     root        89497 Jan 19 23:35 error_log.4
-rw-r--r--    1 root     root            0 Feb  6 04:02 ssl_request_log
-rw-r--r--    1 root     root         6526 Jan 30 23:09 ssl_request_log.1
-rw-r--r--    1 root     root            0 Jan 23 04:02 ssl_request_log.2
-rw-r--r--    1 root     root            0 Jan 19 23:35 ssl_request_log.3
-rw-r--r--    1 root     root            0 Jan 19 23:35 ssl_request_log.4
$

 access_logというのが最新のアクセスログで、××.1、××.2、××.3の順に古くなっていく。 この過去のログをWebalizerへ古い方から順番に読み込ませるといい。これでログに残っている分はすべて集計することができる。

# webalizer /var/log/httpd/access_log.4
# webalizer /var/log/httpd/access_log.3
# webalizer /var/log/httpd/access_log.2
# webalizer /var/log/httpd/access_log.1
# webalizer /var/log/httpd/access_log

 次に/etc/webalizer.confの「LogFile」の設定を「access_log」に変えておく。 すると次からただ「webalizer」と打ち込むだけで、ログの新しい部分だけが集計結果に追加されていく。 手動で設定するのも面倒なのでcronで自動実行するようにしておけばいいだろう。
 cronで自動実行させるには「/etc/crontab」に記述を追加する。 新しいログの作成は毎週日曜日の午前4時22分に行うように設定されているため、 毎日実行する場合でも午前4時22分の直前にログ解析を行うように指定すべき。午前6時なんて時間を指定すると、 毎週日曜日のデータがごっそり解析の対象から抜け落ちてしまう。 下の例では毎日午前4時20分にWebalizerを実行するように指定している。

SHELL=/bin/bash
PATH=/sbin:/bin:/usr/sbin:/usr/bin
MAILTO=root
HOME=/
# run-parts
01 * * * * root run-parts /etc/cron.hourly
02 4 * * * root run-parts /etc/cron.daily
22 4 * * 0 root run-parts /etc/cron.weekly
42 4 1 * * root run-parts /etc/cron.monthly
20 4 * * * root run-parts /usr/bin/webalizer

複数サイトを運営しているときは

 一台のサーバーで複数のドメイン(もしくはサブドメイン)を動かしていて、それぞれ別にアクセスログをとっている場合は、 それぞれのアクセスログに対してWebalizerを実行すればいい。たとえば、「www.mydomain.com」のほかに 「red.mydomain.com」「blue.mydomain.com」という2つのドメインがあったと仮定しよう。

  1. Webalizerの設定ファイルである/etc/webalizer.confをコピーして、 /etc/webalizer_red.conf/etc/webalizer_blue.confといったファイルを作成する。
  2. それぞれの設定ファイルをviで開いて、アクセスログと集計結果出力先のディレクトリを指定する。
  3. 新しく作った設定ファイルをWebalizerに読み込ませる。webalizer -c /etc/webalizer_red.confwebalizer -c /etc/webalizer_blue.confのようにする。
  4. 手動で実行するのは面倒なので、上のコマンドを/etc/crontabに追加する。 同時に実行するとトラブルの元なので2〜3分ずつずらして指定するといい。
posted by LinuxDK at 01:14| 千葉 ☀| Comment(0) | TrackBack(0) | サーバプログラム関連 | このブログの読者になる | 更新情報をチェックする

2008年07月02日

Linux - ハードディスクのS.M.A.R.T.情報を表示するツール smartmontools

Linux - ハードディスクのS.M.A.R.T.情報を表示するツール smartmontools

 S.M.A.R.T.(スマート:Self-Monitoring, Analysis and Reporting Technology System)は、多くのハードディスクが持っている自己診断機能だ。 S.M.A.R.T.から得られる情報を監視することによって、ハードディスクの故障を未然に防げる可能性もある。

コマンドの利用方法はこちらにある
http://www.atmarkit.co.jp/flinux/rensai/linuxtips/521smartinfo.html

今回はRedHatLinux9での導入を行った。

まず、smartmontools Home PageまたはSorcefouge.netよりファイルをダウンロードします。 rpmファイルは残念ながら頒布終了していたので

 

smartmontools-5.38.tar.gzをダウンロード



Downloadが終了したらファイルのあるフォルダでコマンドを実行する
gzip -d      
tar xvf      
configure   
make         
make install

 

3 インストールが終了したら下記コマンドで実行をする。

Usage: /usr/local/etc/rc.d/init.d/smartd {start|stop|reload|report|restart|status}
[root@pe2400 /]# /usr/local/etc/rc.d/init.d/smartd start
Starting smartd:                                           [  OK  ]
[root@pe2400 /]#

ps -ax でプログラムが実行されていることを確認する。

df -m で調べたいHDDのパスを調べておく
[root@pe2400 /]# df -m
Filesystem           1M-        %
/dev/sda5                 3544      2043      1322  61% /
/dev/sda2                   76        10        63  13% /boot
none                       567         0       567   0% /dev/shm
/dev/sda3                 2000      1059       942  53% /ragnarok
/dev/sdc1                17087      6349      9870  40% /mnt/sdc1
/dev/sdd1                  212        28       184  14% /mnt/sdd1
[root@pe2400 /]#                                                            
※SCSI HDDを使用しているので/dev/sd*となっている。 IDEなどであれば通常は/dev/hda となる

smartctl コマンドでHDDの詳細を表示する。 S.M.A.R.T.対応HDDであれば温度なども表示される。

 

[root@pe2400 ]# /usr/local/sbin/smartctl --all /dev/sda
smartctl version 5.38 [i686-pc-linux-gnu] Copyright (C) 2002-8 Bruce Allen
Home page is http://smartmontools.sourceforge.net/
 
Device: IBM      DRVS09D          Version: 0140
Serial number:       6800CBE6SA
Device type: disk
Local Time is: Wed Jul  2 18:58:18 2008 JST
Device supports SMART and is Enabled
Temperature Warning Disabled or Not Supported
SMART Health Status: OK
Elements in grown defect list: 0
 
Error counter log:
           Errors Corrected by           Total   Correction     Gigabytes    Total
               ECC          rereads/    errors   algorithm      processed    uncorrected
           fast | delayed   rewrites  corrected  invocations   [10^9 bytes]  errors
read:       1287        0         1         0          0          0.000           0
write:         0        0         0         0          0          0.000           0
verify:     1287        0         0         0          0          0.000           0
 
Non-medium error count:       29
Device does not support Self Test logging
[root@pe2400 smartmontools-5.38]# cd /
[root@pe2400 /]# /usr/local/sbin/smartctl --all /dev/sda
smartctl version 5.38 [i686-pc-linux-gnu] Copyright (C) 2002-8 Bruce Allen
Home page is http://smartmontools.sourceforge.net/
 
Device: IBM      DRVS09D          Version: 0140
Serial number:       6800CBE6SA
Device type: disk
Local Time is: Wed Jul  2 18:59:10 2008 JST
Device supports SMART and is Enabled
Temperature Warning Disabled or Not Supported
SMART Health Status: OK
Elements in grown defect list: 0
 
Error counter log:
           Errors Corrected by           Total   Correction     Gigabytes    Total
               ECC          rereads/    errors   algorithm      processed    uncorrected
           fast | delayed   rewrites  corrected  invocations   [10^9 bytes]  errors
read:       1287        0         1         0          0          0.000           0
write:         0        0         0         0          0          0.000           0
verify:     1287        0         0         0          0          0.000           0
 
Non-medium error count:       29
Device does not support Self Test logging
[root@pe2400 /]# 

 

以上

Webminでは画像のような表示がされる。もし表示されずエラー画面となるようであればパスが違う恐れがあるのでモジュール設定 (module configure)で変更を行う。

webmin-smartdrivestatus

 

Full path to smartctl commandの部分を下記のように変更する。

 

SMART Drive Status に設定可能なオプション
Display mode One drive    All drives   
Show all attributes Yes    No   
Full path to smartctl command
Force ATA query mode? Yes    No   

 

変更が終了したら保存をクリックして設定を反映させる。

posted by LinuxDK at 19:19| 千葉 ☁| Comment(0) | TrackBack(0) | サーバプログラム関連 | このブログの読者になる | 更新情報をチェックする

2008年06月05日

Linuxサーバでも使える無料のサーバー監視サービス cman.jp 株式会社シーマン

Linuxサーバでも使える無料のサーバー監視サービス cman.jp 株式会社シーマン

1、 概要
Linuxサーバで利用している無料のサーバ監視サービス。
pingからhttp、ポート指定での生存確認をしてくれるのでとても便利である。
監視時間は10分に一回程度である

障害が発生したらメールで通知が来るのですぐに対応が可能。 もちろん携帯メールも指定可能。

登録はこちら
株式会社シーマン サーバー監視サービス

 

無料サーバー監視
インターネットでサーバー公開しているが、24時間監視できない!

と、お悩みの方向けのサーバー監視およびネットワーク監視サービスです。
サービスは無料開放中ですので、 企業でも個人でも自由にご利用下さい。

WEB(HTTP),FTP,MAIL(SMTP,POP3)などを監視可能です!


 

posted by LinuxDK at 16:52| 千葉 ☔| Comment(0) | TrackBack(0) | サーバプログラム関連 | このブログの読者になる | 更新情報をチェックする

2008年05月29日

DVD、HDD 各記録メディアのメリット、デメリット

2chからの転載

DVD-R
メリット:金銭効率
デメリット:焼きこみ作業に要する時間
不確定要素:実効の利用可能領域、書き込まれたデータの損失確率
HDD
メリット:アクセススピードとユーザビリティ
デメリット:故障時のデータロス量の大きさ
テープドライブ
メリット:データの保存性能の良さ、大容量バックアップの容易さ
デメリット:投資コスト
結論
上記の点から見て、自分はHDDを選択する。
加えて、HDDの容量対コスト比が今後飛躍的に良くなっていく点と
外付けケースはHDDの台数分をそろえる必要はなくリムーバブルのバックアップ
メディアとして利用可能である点。
また、どの保存方法を選択しても、長期間の保存の為にはデータを新型のメディア
(HDD・リムーバブルディスク・テープメディア含め)移行していく必要が生じるが
その際にかかる手間とスピードの点で圧倒的に優れているのも見逃せない。

posted by LinuxDK at 14:46| 千葉 ☔| Comment(0) | TrackBack(0) | サーバプログラム関連 | このブログの読者になる | 更新情報をチェックする

ダウンロード症候群の症例 ダウソ症の症例一覧

2chのダウンロードスレから転載

量階級表  改訂版
2008年3月現在(容量の階級は今後変動します)

1PB超・・・・・・・・・・・・・・・・ゴッドいわゆる神
500T超・・・・・・・・・・・・・・・超宇宙恐竜ゼットン
(時空の壁)
300T以上500T未満・・・・・皇族
100T以上300T未満・・・・・大統領
90T以上100T未満・・・・・・ビル・ゲイツ
80T以上90T未満・・・・・・・内閣総理大臣
70T以上 80T未満・・・・・・・国会議員
35T以上 70T未満・・・・・・・1部上場企業社長
15T以上 35T未満・・・・・・・中小企業社長
8TB以上 15T未満・・・・・・・人間
(有刺鉄線壁)
5T以上 8T未満・・・・・・・・チンパンジーのあいちゃん
3T以上 5T未満・・・・・・・・モナー
1T以上 3T未満・・・・・・・・ヌコ
700G以上 1T未満・・・・・・・ネズミ
500G以上 700G未満・・・・・・アメリカザリガニ
300G以上 500G未満・・・・・・ダンゴムシ
200G以上 300G未満・・・・・・蟻
100G以上 200G未満・・・・・・ミジンコ
100G未満・・・・・・・・・・・大腸菌


ダウソ症の症例一覧】 ★あなたはこんな症状はありませんか?
 軽度 ・ダウソが楽しい。
  ↑  ・家に帰るとまず何がダウソされたかを確認する。
  |  ・ダウソ専用PCを組みました。
  |  ・ダウソしたデータを細かく整理している。
  |  ・帰宅/起床して、ルーターの故障/プロバイダのトラブル等でネットが一時切断されていた事実を知るとイライラする。
  |  ・ダウソをしている事を他人に堂々と言える。
  |  ・早朝にピンポンが鳴ると背筋が凍る。
  |  ・ダウソしたコンテンツを利用していない。(たとえばアニメの場合・・・見ないでHDDに貯めておくだけ)
  |  ・月に5台以上HDDを買う。
  |  ・HDDにはダウソしたデータをそのまま放り込んでいて全然整理していない。
  |  ・ファイル交換ソフトの使用についてプロバイダから注意/警告を受けたことがある。(しかしダウソはやめない)
  |  ・HDDが壊れてダウソしたデータが消失した場合、寝食を忘れてそのファイルの救出、あるいは再ダウソに没頭してしまう。
  |  ・2つ以上のプロバイダと契約している。
  |  ・nyを開発した金子氏には感謝しているが、「おまえのせいで人生も金も無駄にした!」と人知れず恨んだ事もある。
  |  ・Download.txt内、あるいはダウソしなければならないと考えているハッシュリストが15000個以上ある。
  |  ・何で自分はこんなに必死になってダウソしてるんだろうと考えた事がある。
  |  ・HDDが70台以上/焼いたDVDが400枚以上ある。
  |  ・この世のデータ全てを手に入れたいと考えている。
  ↓  ・毎月のHDD代を工面するのに一苦労している。
 重度 ・自分の興味のないファイルもとりあえずダウソしてる。

 

【ダウソ病になりやすいと思われるタイプ】 ★該当しているなと思ったら注意!
 ・小学生の頃はあまりアニメに関心が無かった。
 ・日本の歌を外国語でカバーされた歌(たとえば日本のアニメの海外版OPED)を聞くのが好き。
 ・2002年以前にWarezをダウソしたことが何度もある。
 ・90年代後半にはSFC/GB等のエミュレータで遊びまくった。
5 名前: [名無し]さん(bin+cue).rar [sage] 投稿日: 2008/05/05(月) 07:02:30 ID:1xiaDuoh0
ダウソ廃人度チェック表

・ダウソ専用パソコンは当たり前だ
・ネット回線は当然光ファイバーである
・HDDが5TB以下のやつは人間じゃない
・ドライブはZ:ドライブまで埋っている
・DVD-Rなどのメディアを月に500枚以上買うのが普通
・HDDは月に容量合計1TB以上購入する(外付け、内蔵、台数などは問わない)
・複数の回線を持っている (勿論光回線)
・複数のISPと契約してる
・nyを起動すると他の共有ソフトも立ち上がる
・ny専用と、MX専用と、Share専用パソコンを同時稼動させている
・nyやshareのキャッシュは当然のように1TB以上ある
・HDDのためにUPSを装備していて突然の停電にも耐えられる
・ダウソのためにソーラーパネルを装備している
・日々バックアップを怠らない
・RAID環境が当然だ
・テープメディアにもバックアップしている
・でも保存したものを見たりはしない
・HDDは50台以上 DVD-R、CD-Rは1000枚以上にデータが入ってる
・当然PCは24時間つけっぱなしだ
・ていうか、メンテナンス時以外はPCの電源を落とさない
・持っていないレアファイルが落ちてくるのを見ると興奮してチンコが立ってくる
・エロコンテンツだけは見るが、見すぎで慣れてチンコは全く立たない
・今までに、P2Pのせいでご臨終したHDDが、10台以上ある
・PCニュースサイトの、HDDとDVD-Rの相場情報を常に把握している
・HDDにファイルが貯まっていくのを見るととても喜びを感じる ダウソが生きがいだ
・学校や仕事中、外出中は、何が落ちてるのかをずっと考えていて帰宅してから確認するのが楽しみで仕方がない。
・外出して帰ってくると、まず一番はじめにすることは何がダウソされたかを確認することだ
・珍しいファイルが落ちてくるのを見ると興奮してチンコが立ってくる
・コンテンツは貯めるもので利用したりするものではない
・山田やキンタマウィルス、ドクロウィルスにひっかかる香具師はバカ以外何者でもない
・無通信時間があった事に気付いてイライラする
・ダウソ環境は光以外は認めない
・ダウソ環境が悪くなるから「デスラーは氏ね」と思う
・ダウソ環境整備を重とする住宅設計を考えている
・PC本体、HDDやメディアの収納で家のスペース半分は潰す覚悟でいる
・金子は神だ..逮捕時に当然弁護士費用の寄付を行った
・いや、むしろ金子のせいで廃人になってしまった 謝罪と賠償を要求するニダ!
・ぷらら、So-net、Niftyは死ね 氏ねじゃなくて死ね
・機会損失って概念が 常に頭の中にあって、ダウンしてないと損した気がしてしょうがない
・自分はダウソ病の認識がある(→ダウソ症の症例一覧へ)

posted by LinuxDK at 14:45| 千葉 ☔| Comment(0) | TrackBack(0) | サーバプログラム関連 | このブログの読者になる | 更新情報をチェックする

ダウソ力検定

2chを徘徊していると、こんな検定を発見した

持っているHDDが6TBを越えているので試しにテストしてみた

で、結果がコレninteishou 

高っ! 8858人中1293位
自分はいったい何をしているんだろうと本気で思ってしまった・・・

・いまさら人に聞けない大人のダウソ力検定です。
http://kantei.am/12728/

posted by LinuxDK at 14:42| 千葉 ☔| Comment(0) | TrackBack(0) | サーバプログラム関連 | このブログの読者になる | 更新情報をチェックする
にほんブログ村 その他趣味ブログ アマチュア無線へ
にほんブログ村
にほんブログ村 バイクブログ カワサキへ にほんブログ村 IT技術ブログへ
食べログ グルメブログランキング banner_03[1].gif
押していただけると喜びます

長期間、樽でじ〜っくり熟成!【幻のプレミア麦焼酎】

×

この広告は1年以上新しい記事の投稿がないブログに表示されております。