« October 2006 | Main | December 2006 »

Mind Hacks

Mind Hacks 実験で知る脳と心のシステム
Tom Stafford, Matt Webb, 夏目 大 (訳) (オライリージャパン, 2005)

読了。面白い本だと思う。

じつは認知的脳科学の最近の研究と言うのは、まさにこの本に書かれたようなことをやっている。科学の論文と言うのは正確さと間違いのなさを重視して書かれるから分かりにくくなるけど、正確さを無視して分かりやすく書くとこういう感じになるという本。だからこの分野について入門したい人には面白いと思う。

以下は、自分の備忘の為に:

▼hack #92 コーヒーの味はカップで変わる?

カフェインがドーパミンと競合する神経伝達物質(アデノシン)の働きを妨害するため、その結果としてドーパミンの働きを活発にすると言われている。(p365)

カフェインは脳の「報酬回路」を化学的にハッキングする。(p363)

これは知らなかった。カフェインは覚醒作用と言われるから、単に覚醒系に作用するのだと思っていた。


▼hack #85 偽物の記憶(p334)
この前後の節の偽の記憶に関わる話は面白い。


▼hack #76 共同運命の原理

一説には、情報の「結び付け」の際には、多数のニューロンが同じタイミングで発火するとも言われ、「共通運命の原理」はそのメカニズムの反映ではないかとも言われる。(p299)

bindingのsynchronizationメカニズムによるこの説明は、(私から見ると分の悪い)仮説にすぎない。しかし、それ以上にメカニズムが現象を説明するという考え方は、生物に対してはまずい考え方だ。現象が何らかの適応的意味をもち、それを実現するためのメカニズムがあると考えるべき。


▼hack #75 ゲシュタルト原理

近接
そばにあるものは自然に同じグループに属するとみなす事が多い。
類同
見た目が似ているものもひとまとめにする事が多い。
閉合
「ある図形やパターンに近いが不完全」というものがあった時は、それを完成させようとする
連続
図形が連続する線の上にあると認識しようとする
(たとえば交差する二つの直線を二つの楔とみなさないこと)
(以上p294 を要約)

これらは尤もな話だし、実験をしてもある程度の範囲でその通りの結果が出るだろう。こういうのがゲシュタルト心理学なわけだけど、間違っている訳でも無いのに下火になった理由は「事が多い」と言っても、そうで無い場合もあるし、とかでそれ以上精密化も定量化も出来なかっただろう。

私の考えではこれはみな確率論によって解決される。つまり、近接の原理は(実際だれもの日常経験通り)同じグループの物が近くにある事が多いという確率的事実の反映だし。見た目が似た物が一つのまとまりを形成している事は多いし、軸の合ったX形の線が見えた時それが二つの>形の物体と<形の物体が合わさった物である事は確率が低い。

そう言えば、ビーダーマンのgeonも同じように確率論で説明できるな。次節の「共通運命の原理」も、たとえばsynchronicityが強いほど、同じ原因から起きたことであるという確率的事実の反映に過ぎない。

脳は、このように生まれてからの全ての知覚/認知の結果を確率的に積算してその確率を使って現在起こっている事に対して推定をかけるようになっている。


▼hack #61 独り言

我々は、ある物体が赤い事、コーヒーカップが2つある事、などは何も考えなくとも把握できる。ただ、「赤い」という情報、「コーヒーカップが2つある」という情報を組み合わせて使うには、言語の構文を利用しなくてはならない、というのがCarruthersの主張だ。(p227)

私としては賛成できない。しかし、私なら言語は単に表現の媒体程度にしか考えないのに対して、西洋人と言うのは言語と知能の本質を結び付けて考える傾向が強い。改めてそう思った。


▼hack #34 注意を向ける能力の限界
p131のattention resolutionが面白い。視覚的注意にはspot lightみたいな物であるあるのは内省的観察でもわかる。このspotlightの空間解像度がこんな簡単な実験で分かるとは面白い。

| | Comments (0)

高次視覚と記憶

Memory modulates color appearance. Hansen T, Olkkonen M, Walter S, Gegenfurtner KR., Nat Neurosci. 2006 Nov;9(11):1367-8.

バナナは全くの白黒写真にしても黄色く感じられるし、ミカンはオレンジ色に、レタスは緑に感じられるという話し。

色知覚が記憶によって強くmodulateされるという話は何となく知っていたが、こんなにはっきりした効果であるとはおもしろい。しかも、「バナナは黄色」みたいな典型の記憶になっていると。

私の考えでは、色知覚だけでなくて、高次視覚は基本的な仕組みとして記憶を利用していると思っている。

知覚が記憶に長時間影響を受けると言う事でマッカロー効果に関係があるかと思ったけど、あれは補色になるらしいので反対だな。

| | Comments (0) | TrackBack (0)

確率モデルを観測された確率分布にfittingする時の、規格化の問題

θiでパラメトライズされたモデル確率分布q(x; θ)を観測された確率p(x)にfittingしたい事が良くある。というか多変数確率論や学習の問題はほとんどそれだ。

fitの基準としてはKL-divergence
  L = ∫dx p(x) log q(x)/p(x)
がもっとも普通である。ここでxは一般の多次元だと言う事に注意。

確率は全ての場合をあわせれば1なので、当然常に∫dx q(x;θ1,θ2, ...) = 1が前提なんだけど、これが困る。一般的には q(x;θ1,θ2, ...) = c Q(x;θ1,θ2, ...)として、Qが何かの関数であるとして、∫dx q(x) = 1 となるように c を選ぶ。しかしQ(x; θ)が初等関数である場合ですら、積分してcを求める事なんかめったに出来ないから困る。

そこで、どうするか。たとえばHyvarinenの解答については前に紹介した。しかし、これもKL-divergenceじゃない根拠の怪しい基準を使っているのが問題だ。

この問題に対して私は以下のようにすれば良いのではないかと考えた。

まずgradientさえ分かればよい。
  ∂i L = ∫dx p(x) ∂i log q(x)       (1)
ここで∂i は∂/∂θiの略記であり、 ∂i p(x) = 0を使った。またθ0 = cとする。微小変化のベクトルΔθが∫dx q(x) = 1を壊さないための拘束条件は
  ∫dx Σi Δθi ∂i q(x) = 0
であり、ベクトル∂i Lから拘束条件に平行な成分を引き去ればよい。

これは本物の神経のネットワークにとっては、出来ない訳では無いけど、難しい仕事だ。∂i L とベクトル∫dx ∂i q(x)を別々に求めてストアしなくてはならないので2倍多くのニューロンが必要になる。
またp(x) ~ q(x)に収束してくるとベクトルがほとんど同じになって、ニューロン上で桁落ちのような状況が起きるので、かなり精密にキャリブレーションする必要がある。(コンピュータでsimulateする時は、それほどの困難では無いけど。)p(x)は実データの有限サンプリングであるからノイズを含んでいるし、q(x)はMetropolis法(別名Markov Chain Monte Carlo法)によるランダムサンプリングであるためにノイズを含んでいるから状況はなお悪い。

しかし、ここで魔法のように上手く行く公式を見つけた。
  ∫dx (p(x)-q(x)) ∂i log Q(x)     (2)
を勾配にすればよいのだ。これは上の引き去るべき成分がちょうど1である事を意味する。

導出の仕方をふた通り示す。

第一の導出法はKL-divergence
  ∫dx p(x) log q(x)/p(x)
  =∫dx p log (1+(q/p-1) )
  ~∫dx p { (q/p-1) - (q/p-1)^2/2 + (q/p-1)^3/3 -...}
で、展開の1次の項がqに拘束条件が課されていない時に悪さをすることが分かる。ならばKL-divergenceから∫dx p (q/p-1)を引けばよい。そうすれば、qの総確率が1からずれた時に復元力も働く。
  L' =∫dx p log q/p -∫dx (q-p)
で、これgradientは
  ∫dx (p(x)-q(x)) (∂i log Q(x))    (3)

  ∫dx (p(x)-q(x)) (∂c log c)     (4)
である。仮に(4)式により完璧にnormalizationが出来ているとした時、(3)式に従えばcを知る事無しに勾配を求める事ができる。それが(2)式。そして、実のところ、∫dx q(x) (∂i log Q(x))の計算はMetropolis法でやる訳だから、Q(x)が与えられた時のq(x)のサンプリングはcを知る事無しに自動的に行う事ができる。

第二の導出法はp(x)~q(x)のときはKL-divergenceは
  -∫dx 1/p(x) (q(x)-p(x))^2/2
で近似される。これの勾配は
  ∫dx (∂i q(x))(p(x)-q(x))/p(x)
p(x) ~ q(x)だから
  〜∫dx (p(x)-q(x)) (∂i q(x))/q(x)
これは(3),(4)式と同じ。


註:この勾配法において、cの値をadjustしてから、シータを更新しまたcの値をadjustし・・・とかやるのは上手く行かない。たとえばc exp(-θx^2)で考えてみよ。c =0 に落ち込んでしまう。

| | Comments (0) | TrackBack (0)

ココログが検索にかからない時

なんか検索からのアクセスが異常に少ないと思っていた。自分で自分のページを検索できない。もしかしたら違法やエロ系のサイトと思われたのか!とか思っていたが、ふとページのソースを覗いてみたら


< meta name="robots" content="noindex,nofollow" />

となっていました。「ブログ→設定→公開用設定→更新通知」を「 いいえ」にするとそうなるらしい。その設定ページにある説明では

多くの人にあなたのブログを知ってほしい場合には「はい」に設定することをおすすめします。「はい」に設定すると、更新のたびにココログのトップページやラブ!リング、ココフラッシュに自動的に掲載されるようになるので、あなたのブログへの訪問者数を増やし、多くの人に見てもらうチャンスが増えます。逆に、不特定多数の人にこのブログの存在を知らせたくない場合は、「いいえ」を選択してください。(06.11.4現在)

となっている。私はこの説明では、トップページやその他ココログ関連ページのみが影響されると思った。まさか「更新通知」がnifty以外のロボットにまでnoindex nofollowの意味とは思わなかった。これで分かれと言うのは無理がある。

で、この問題を直すためにはまず件の設定を「はい」にする。しかし、この設定を変更してもページには反映されない。新規投稿やコメントなどで変更があったページのみ変更される。そうでないページはそのままである。(キャッシュされてるんだろう。)

これを直すには全てのページを「再構築」しなくてはならない。nifty謹製の再構築方法はココログにログインして
[ ブログ ]→「便利メニュー」の中の[ デザインの編集 ]→[ 反映 ]→[ 反映 ]

要するに、デザインテンプレート編集の副作用で更新すると言うこと。


なおnoindex nofollowがついていたせいで、はてなアンテナなどにこのサイトを登録しようとした時、「禁止されてるけどいい?」みたいなメッセージがでたはずです。しかしそれは以上のようにココログの分かりにくい仕様のせいであって、禁止しようと言う意図はありませんでした。というわけで気楽にアンテナに登録して下さい。

| | Comments (0) | TrackBack (0)

前に進むためには多くを捨てなくてはならない—それは美しいものかもしれないけれど—

前に書いたTeXの話に関係して、

TeXも電算写植のシステムも前時代(つまり活字の時代)に出来た事をみなできるように作ってある。

一方、たとえばなぜplain textファイルがあんなに可搬でロバストでいろんな用途に使えるか考えてみる。それはplain textがばっさりと機能を削ってあるからだ。電子メールは便利だけど、手書きの温もりもないし写真や押し花を入れる事もできない。

企業へのコンピュータ導入の場面でも良く言われるのは、それまでのワークフローをそのまま維持しようとすると、コンピュータを導入してもコストが下がらないということだ。

コンピュータによる大幅な生産性の向上を享受するためには、前時代が大切にしていた何かをかなぐり捨てる必要がある。そしてそうしないシステムはしばしばオーバーオールで生産性の向上をもたらさない。TeXはその例であるような気がする。(TeXで節約できた時間←→バッドノウハウを獲得するのに使った時間やもっと単純なシステムなら諦めていたような細かい数式のこだわりに費やした時間)

てか活字印刷だって、その前の時代の手書きの味とかをかなぐり捨てた合理化の結果だし。このように前に進むためには前時代にはゆかしくうつくしいと思われていた物をかなぐり捨てなきゃならないのだと思う。

それは社会のあらゆる側面について言える。たとえば、ほとんどの人が専門分化して自給自足する能力が無く、他人の仕事を知らないのも、残念だけど現代の生産性を実現するには仕方ない事だ。木登りが出来ない子供達も、その時間を使って現代に必要な知識や情報機械への親和性を獲得している。

こうやって残念に思っても、あらゆる物をかなぐり捨てながら我々は未来に進んで行くしかないのだろう。

| | Comments (1) | TrackBack (0)

« October 2006 | Main | December 2006 »