スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

JavaScriptのリンク制限

無料サーバでもできるJavaScriptのリンク元制限について。
私はJavaScriptに関してド素人なので間違ってたらごめんなさい。

以前の記事で少し書きましたが、JavaScriptのリンク元制限は「海外ファンサイト事情」や「裏サイトオーナーのための Small Tips」で紹介されています。その他にもJavaScriptで制限をする方法はあちこちで紹介されています。
それぞれ多少違っても、基本は以下のようなスクリプトのようです。
----------
<script language="JavaScript"><!--
if(document.referrer.indexOf("***.jp")!=-1)
window.location.href="http://redirect.***.jp";
// --></script>
----------

<script language="JavaScript"> 〜 </script>までをコピー。
HTMLの<head> 〜 </head>の間に貼り付けて下さい。

意味は「もしリンク元***.jpを含んでいたらhttp://redirect.***.jpへ飛ばしちゃえ」と書いてあります。

意味を理解したい時は下記のサイトが分かりやすいと思います。
JavaScript basic samplesリファレンス(比較演算子・referrer・indexOf()の項目を)

...続きを読む

スポンサーサイト

Basic認証ってなーに?

Basic認証の話。
Basic認証とは.htaccessでパスワードをかける方法です。

これは非常に強力です。
.htaccessはフォルダ単位で制限をかけますので、もし「ura」と言うフォルダにパスワード用.htaccessを設置して、その中に裏ページを作ったとすると、「ura」に入っているファイル全てにパスワードによる制限がかかります。
こうすると.htaccess制限以下の、どのページにリンクされても結局はパスワードを請求される事になります。
つまり、どこから、どのページにリンクされようとほぼ鉄壁です。
(IDとパスワード込みで晒されたりしたらさすがにダメですが)

よく裏ページ作成の注意として言われる、「URL請求や、裏の入り口だけ隠しても無駄。裏の小説(など)に直接リンクされたら結局誰でも入れてしまうし、そうなれば検索ロボットだって入れてしまう」と言う悩みを解決してくれます。
実際、キャラ名で検索すると、よく裏ページの小説がヒットします。URLを削って入り口に行ってみると「お気に入りはINDEXに」や「オンラインブクマ禁止」だったりして…なんと言うか……。

ついでに、Basic認証は検索除けにも絶大の効果です。検索ロボットだって所詮は訪問者。パスワードを打つキーボートも腕も無い奴らにBasic認証の壁は破れません。
検索に神経質になってアクセス解析とにらめっこしてるなら、導入してみてはいかがでしょうか。

じゃあ実際にはどうするのか。
今回は、かなりややこしい事が書いてあります

...続きを読む

.htaccessってなーに?

検索避け(検索除け)最強手段、.htaccessについて。
一般的なMETAとrobots.txtの検索よけについてはこちらの記事になります
.htaccessとは、すごーく乱暴な言い方をするとアクセス制限をする時に利用するファイルです。
「.htaccess」と言う名前を見ると、なんだか難しそうですが、実際には普通のテキストファイルですからメモ帳などで作成可能です。ドットエイチティーアクセスと読みます。
参考:ミケネコの htaccess リファレンス:.htaccess ファイルの使い方

検索よけに利用する場合、ユーザーエージェント(UA=ブラウザ・ロボット。またはその名前)やIPで特定のロボットを指定し、それの出入りを禁止すると言った使い方をします。

どんな事に使うのか

.htaccessは同人サイトでは以下のような使われ方が多いようです。

  1. 検索ロボットのアクセス制限(UAによる制限)
  2. 困ったさん・荒らしのアクセス制限(IPによる制限)
  3. 特定の言語圏のアクセス制限または許可(ブラウザの使用言語による制限)
  4. 裏ページのパスワード制限(Basic認証)
  5. ディープリンク禁止・画像の直リンク禁止(リファラによる制限)

その他、いろいろ出来ます。

私は.htaccessに関してせいぜいサンプルを見てカスタマイズする程度の腕前です。この記事を書くにあたって色々調べはしましたが、情報に誤りが無いとも限りません(間違ってたら教えてください!)。
まずは下記のサイトなどに目を通す事をおすすめします。

ミケネコの htaccess リファレンス
.htaccess実践活用術 
さくらインターネット非公式FAQ(.htaccessページに多数のサンプル有)
サルにもわかる正規表現入門(.htaccessは正規表現をよく使うので一応)

検索よけで考えるなら、Googlebot(Googleのクローラー)をアクセス禁止にしてしまえば、Googleはあなたのサイトの内容を取得する事が出来なくなりますから、Googleでヒットする事はまず無くなります。
この設定が上手く働かず、万一サイトがGoogleにインデックスされてしまっても、リンク元情報(リファラ)に「google.com」を含む訪問者をアクセス禁止にしてしまえば、google経由で来る人をだいたいブロックできるので、「検索にひっかかったから移転!」などと慌てる必要は少なくなります。リンク元でブロックしている間に.htaccessを見直して対象クローラーの設定を改善すればOKです。後は消えるのを待ちましょう。
(Googlebotを例に出しましたが、googleは行儀が良いのでMETAやrobots.txtに従ってくれます。念のため)
オンラインブックマークがイヤだと言うのなら、リンク元制限をしてしまえば良いのです。(完璧ではありません。詳しくは後述)

...続きを読む

Blogの検索除け

ブログがいかに検索にヒットしやすく、情報をばらまきまくりなツールなのかは、下記の記事に詳しく書いてありますので、ブログを検索されたく無いって人は是非よんでみて下さい。
電脳腐女子解体新書:ヲタクサイトのブログ利用

もともとブログは、情報を効率よく伝える方向に特化したツールなので「ブログを使ってるのに、検索されたくない」と考える事は「お絵かき掲示板を使ってるのに、お絵かきはキライ」くらい奇妙な事です。

また、各記事を自由に見たりリンクしたりするために(わざわざ)固定URLがふられている事から「ホームページは家と同じ!INDEXから入らないのは失礼!」「リンクはこのURLにお願いします」な考えとは正反対のツールでもあります。
ブログの検索除けを考える前に、これらを心に留めて欲しいと思います。

ブログについての詳しい情報は下記を参考にしてください。
IT用語辞典:blogとは
ブログ - Wikipedia

でもねー(検索除けしてブログを使うのがいかに矛盾していても)可愛いスキンがいっぱいあるし、使いたいってのは分かります。
なので、なるべく検索にヒットさせずにブログを使う方法をちょっと考えてみました。

...続きを読む

オバケ退治 ロボット退治

検索ロボットについての正しい知識は下記リンク先からどうぞ。
IT用語辞典 検索ロボットとは

GoogleやYahooはこれらロボットを使って数多あるウェブサイトの情報を収集している訳になります。
ってそんな事はいくらなんでも知っていますか(笑)

そもそもロボット検索って何かと言うと。

ネットにはGoogleさんとかYahooさんとか言う情報通が居て、新しい情報を求めて常にネットサーフィンをしている。彼らは人に質問されると、質問された内容について、過去に見たホームページの知識を披露する。(これがロボット検索)
GoogleさんやYahooさんはネットサーフィンする時、専用のブラウザを使う(これが検索ロボットと呼ばれるモノ)

なんだか言葉が足りない気がするけど…。こんな感じかなあ。

ロボットは普通にサイトを訪問しています。ただ、レンタルのアクセス解析やCGIの解析の多くはロボットに反応しないので、いつ来たのか分からないだけです。
ちなみにサーバーのログ(生ログ。有料のサーバだと見れる所が多いです)を見てみると、ロボットも普通に訪問しているのが分ります(挙動不審な事が多いけど)。
何だかスゴイ方法であなたのサイトの情報を持って行く訳じゃないんです。

今、必要以上にロボット検索を怖がったり、妙な誤解が広まったりしているのは、初心者が使うレンタル解析で検索ロボットを見つけられないからではないかな、と、私は思っています。
見えないお化けを怖がるような感じですね。

「ロボット=お化け」を退治をするのに、「忍者やCGIのアク解しか無い人=霊感の無い人」「サーバのログが見れる人=霊感の有る人」みたいな気分です。

...続きを読む

Template Designed by DW99

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。