はじめによんでください

人工意識

Artificial consciousness

Mitzub'ixi Quq Chi'j

池田光穂

☆人工意識(Artificial consciousness、[1] 機械意識、[2][3]合成意識、[4]デジタル意識、[5]とも呼ばれる)とは、人工知能において可能であると仮定される意識のことであり[6]、心の 哲学、人工知能の哲学、認知科学、神経科学から洞察を得た対応する研究分野でもある。 同じ用語は、現象的意識(クオリアを感じる能力)を特に指定する場合、「意識」の代わりに「感覚」という用語を使うことができる[7]。感覚は、倫理的に 肯定的または否定的な(すなわち、価値付けされた)精神状態を経験する能力を含むため、動物と同様に、福祉上の懸念や法的保護を正当化する可能性がある [8]。 意識は脳のさまざまな部位の相互作用によって生成されると考える学者もおり、これらのメカニズムは意識の神経相関(neural correlates of consciousness)またはNCCと呼ばれている。さらに、このNCCの相互運用をエミュレートできるシステム(コンピュータ・システムなど)を 構築すれば、意識を持つシステムができると考える者もいる[9]。

Artificial consciousness,[1] also known as machine consciousness,[2][3] synthetic consciousness,[4] or digital consciousness,[5] is the consciousness hypothesized to be possible in artificial intelligence.[6] It is also the corresponding field of study, which draws insights from philosophy of mind, philosophy of artificial intelligence, cognitive science and neuroscience.

The same terminology can be used with the term "sentience" instead of "consciousness" when specifically designating phenomenal consciousness (the ability to feel qualia).[7] Since sentience involves the ability to experience ethically positive or negative (i.e., valenced) mental states, it may justify welfare concerns and legal protection, as with animals.[8]

Some scholars believe that consciousness is generated by the interoperation of various parts of the brain; these mechanisms are labeled the neural correlates of consciousness or NCC. Some further believe that constructing a system (e.g., a computer system) that can emulate this NCC interoperation would result in a system that is conscious.[9]
人工意識(じんこういしき、[1]機械意識、[2][3]合成意識、 [4]デジタル意識、[5]とも呼ばれる)とは、人工知能において可能であると仮定される意識のことであり[6]、心の哲学、人工知能の哲学、認知科学、 神経科学から洞察を得た対応する研究分野でもある。

同じ用語は、現象的意識(クオリアを感じる能力)を特に指定する場合、「意識」の代わりに「感覚」という用語を使うことができる[7]。感覚は、倫理的に 肯定的または否定的な(すなわち、価値付けされた)精神状態を経験する能力を含むため、動物と同様に、福祉上の懸念や法的保護を正当化する可能性がある [8]。

意識は脳のさまざまな部位の相互作用によって生成されると考える学者もおり、これらのメカニズムは意識の神経相関(neural correlates of consciousness)またはNCCと呼ばれている。さらに、このNCCの相互運用をエミュレートできるシステム(コンピュータ・システムなど)を 構築すれば、意識を持つシステムができると考える者もいる[9]。
Philosophical views
As there are many hypothesized types of consciousness, there are many potential implementations of artificial consciousness. In the philosophical literature, perhaps the most common taxonomy of consciousness is into "access" and "phenomenal" variants. Access consciousness concerns those aspects of experience that can be apprehended, while phenomenal consciousness concerns those aspects of experience that seemingly cannot be apprehended, instead being characterized qualitatively in terms of "raw feels", "what it is like" or qualia.[10]
哲学的見解
意識の種類には多くの仮説があるように、人工意識の実装にも多くの可能性がある。哲学の文献では、おそらく意識の最も一般的な分類法は、「アクセス」と 「現象的」の変種である。アクセス意識は、理解することができる経験の側面に関するものであり、現象的意識は、理解することができないように見える経験の 側面に関するものである。
Plausibility debate
Type-identity theorists and other skeptics hold the view that consciousness can be realized only in particular physical systems because consciousness has properties that necessarily depend on physical constitution.[11][12][13][14] In his 2001 article "Artificial Consciousness: Utopia or Real Possibility," Giorgio Buttazzo says that a common objection to artificial consciousness is that, "Working in a fully automated mode, they [the computers] cannot exhibit creativity, unreprogrammation (which means can 'no longer be reprogrammed', from rethinking), emotions, or free will. A computer, like a washing machine, is a slave operated by its components."[15]

For other theorists (e.g., functionalists), who define mental states in terms of causal roles, any system that can instantiate the same pattern of causal roles, regardless of physical constitution, will instantiate the same mental states, including consciousness.[16]
妥当性の議論
タイプ同一性理論家やその他の懐疑論者は、意識は物理的な構成に必然的に依存する性質を持つため、意識は個別的な物理システムにおいてのみ実現されうると いう見解を持っている[11][12][13][14]: ジョルジョ・ブッタッツォは、2001年の論文「ユートピアか、現実の可能性か」の中で、人工意識に対する一般的な反論は、「完全に自動化されたモードで 動作する彼ら(コンピュータ)は、創造性、アンプログラマシー(再考から『もはや再プログラムされない』ことを意味する)、感情、自由意志を示すことがで きない」と述べている。コンピュータは、洗濯機のように、その部品によって操作される奴隷である」[15]。

精神状態を因果的役割の観点から定義する他の理論家(例えば機能主義者)にとっては、物理的構成に関係なく、因果的役割の同じパターンをインスタンス化できるシステムは、意識を含む同じ精神状態をインスタンス化することになる[16]。
Thought experiments
David Chalmers proposed two thought experiments intending to demonstrate that "functionally isomorphic" systems (those with the same "fine-grained functional organization", i.e., the same information processing) will have qualitatively identical conscious experiences, regardless of whether they are based on biological neurons or digital hardware.[17][18]

The "fading qualia" is a reductio ad absurdum thought experiment. It involves replacing, one by one, the neurons of a brain with a functionally identical component, for example based on a silicon chip. Since the original neurons and their silicon counterparts are functionally identical, the brain’s information processing should remain unchanged, and the subject would not notice any difference. However, if qualia (such as the subjective experience of bright red) were to fade or disappear, the subject would likely notice this change, which causes a contradiction. Chalmers concludes that the fading qualia hypothesis is impossible in practice, and that the resulting robotic brain, once every neurons are replaced, would remain just as sentient as the original biological brain.[17][19]

Similarly, the "dancing qualia" thought experiment is another reductio ad absurdum argument. It supposes that two functionally isomorphic systems could have different perceptions (for instance, seeing the same object in different colors, like red and blue). It involves a switch that alternates between a chunk of brain that causes the perception of red, and a functionally isomorphic silicon chip, that causes the perception of blue. Since both perform the same function within the brain, the subject would not notice any change during the switch. Chalmers argues that this would be highly implausible if the qualia were truly switching between red and blue, hence the contradiction. Therefore, he concludes that the equivalent digital system would not only experience qualia, but it would perceive the same qualia as the biological system (e.g., seeing the same color).[17][19]

Critics[who?] of artificial sentience object that Chalmers' proposal begs the question in assuming that all mental properties and external connections are already sufficiently captured by abstract causal organization.


思考実験
デイヴィッド・チャルマーズは、「機能的に同型」のシステム(同じ「微細な機能組織」、すなわち同じ情報処理を持つシステム)は、それが生物学的ニューロ ンに基づくものであろうとデジタル・ハードウェアに基づくものであろうと、質的に同一の意識経験を持つことを実証する意図で、2つの思考実験を提案した [17][18]。

消えゆくクオリア」は不条理な思考実験である。これは、脳のニューロンを一つずつ、例えばシリコンチップをベースとした機能的に同一のコンポーネントと置 き換えるというものである。元のニューロンとシリコンチップは機能的に同一であるため、脳の情報処理に変化はなく、被験者もその違いに気づかないはずであ る。しかし、クオリア(真っ赤という主観的経験など)が薄れたり消えたりすれば、被験者はその変化に気づく可能性が高く、矛盾が生じる。チャルマーズは、 消えゆくクオリア仮説は実際には不可能であり、ロボットの脳は、すべてのニューロンが交換されれば、元の生物学的な脳と同じように感覚を保つだろうと結論 付けている[17][19]。

同様に、「踊るクオリア」の思考実験もまた不条理帰納的な議論である。これは、機能的に同型の2つのシステムが異なる知覚(例えば、同じ物体を赤と青のよ うに異なる色で見る)を持ち得ることを仮定している。赤の知覚を引き起こす脳の塊と、青の知覚を引き起こす機能的に同型のシリコンチップを交互に切り替え るスイッチが関係している。どちらも脳内で同じ機能を果たしているため、被験者はスイッチの間の変化に気づかない。チャルマーズは、もしクオリアが本当に 赤と青の間で切り替わるのであれば、これは非常にあり得ないことであり、それゆえに矛盾していると主張する。したがって彼は、同等のデジタル・システムは クオリアを経験するだけでなく、生物学的システムと同じクオリアを知覚する(例えば、同じ色を見ている)だろうと結論付けている[17][19]。

人工的な感覚の批評家[誰?]は、チャルマーズの提案は、すべての心的特性と外的なつながりが抽象的な因果組織によってすでに十分に捕捉されていると仮定している点で疑問を投げかけている、と異議を唱えている。

In large language models
In 2022, Google engineer Blake Lemoine made a viral claim that Google's LaMDA chatbot was sentient. Lemoine supplied as evidence the chatbot's humanlike answers to many of his questions; however, the chatbot's behavior was judged by the scientific community as likely a consequence of mimicry, rather than machine sentience. Lemoine's claim was widely derided for being ridiculous.[20] However, while philosopher Nick Bostrom states that LaMDA is unlikely to be conscious, he additionally poses the question of "what grounds would a person have for being sure about it?" One would have to have access to unpublished information about LaMDA's architecture, and also would have to understand how consciousness works, and then figure out how to map the philosophy onto the machine: "(In the absence of these steps), it seems like one should be maybe a little bit uncertain. [...] there could well be other systems now, or in the relatively near future, that would start to satisfy the criteria."[21]

Kristina Šekrst cautions that anthropomorphic terms such as "hallucination" can obscure important ontological differences between artificial and human cognition. While LLMs may produce human-like outputs, she argues that it does not justify ascribing mental states or consciousness to them. Instead, she advocates for an epistemological framework (such as reliabilism) that recognizes the distinct nature of AI knowledge production.[22] She suggests that apparent understanding in LLMs may be a sophisticated form of AI hallucination. She also questions what would happen if a LLM were trained without any mention of consciousness.[23]

David Chalmers argued in 2023 that LLMs today display impressive conversational and general intelligence abilities, but are likely not conscious yet, as they lack some features that may be necessary, such as recurrent processing, a global workspace, and unified agency. Nonetheless, he considers that non-biological systems can be conscious, and suggested that future, extended models (LLM+s) incorporating these elements might eventually meet the criteria for consciousness, raising both profound scientific questions and significant ethical challenges.[24]


大規模言語モデル
2022年、グーグルのエンジニアであるブレイク・レモワンは、グーグルのチャットボット「LaMDA」が知覚を持つという主張を行った。Lemoine は、自分の質問の多くにチャットボットが人間のような回答をしたことを証拠として提供した。しかし、チャットボットの行動は、機械の感覚ではなく、模倣の 結果である可能性が高いと科学界は判断した。しかし、哲学者のニック・ボストロムは、LaMDAが意識を持っている可能性は低いとしながらも、「人格がそ れを確信する根拠は何だろうか?」という疑問も投げかけている。LaMDAのアーキテクチャに関する未発表の情報にアクセスし、意識の仕組みを理解し、そ の哲学を機械にマッピングする方法を考えなければならない: 「このようなステップがない場合)少し不確かであるべきかもしれない。[...)現在、あるいは比較的近い将来に、その基準を満たし始める他のシステムが 存在する可能性は十分にある」[21]。

Kristina Šekrstは、「幻覚」のような擬人化された用語は、人工認知と人間認知の間の重要な存在論的差異を曖昧にしかねないと警告している。LLMは人間のよ うな出力を生み出すかもしれないが、それは精神状態や意識をLLMに帰属させることを正当化するものではないと彼女は主張する。その代わりに、彼女は、 AIの知識生産の明確な性質を認識する認識論的枠組み(信頼性主義のような)を提唱している。彼女はまた、もしLLMが意識について何も言及することなく 訓練されたらどうなるだろうかと疑問を呈している[23]。

デイビッド・チャルマーズは2023年に、今日のLLMは印象的な会話能力と一般的な知能能力を示しているが、リカレント処理、グローバルなワークスペー ス、統一的なエージェンシーなど、必要と思われるいくつかの機能が欠けているため、まだ意識を持っていない可能性が高いと主張した。それにもかかわらず、 彼は非生物学的システムが意識を持つことができると考え、これらの要素を組み込んだ将来の拡張モデル(LLM+)が、いずれ意識の基準を満たすかもしれな いことを示唆した。

Testing
Qualia, or phenomenological consciousness, is an inherently first-person phenomenon. Because of that, and the lack of an empirical definition of sentience, directly measuring it may be impossible. Although systems may display numerous behaviors correlated with sentience, determining whether a system is sentient is known as the hard problem of consciousness. In the case of AI, there is the additional difficulty that the AI may be trained to act like a human, or incentivized to appear sentient, which makes behavioral markers of sentience less reliable.[25][26] Additionally, some chatbots have been trained to say they are not conscious.[27]

A well-known method for testing machine intelligence is the Turing test, which assesses the ability to have a human-like conversation. But passing the Turing test does not indicate that an AI system is sentient, as the AI may simply mimic human behavior without having the associated feelings.[28]

In 2014, Victor Argonov suggested a non-Turing test for machine sentience based on machine's ability to produce philosophical judgments.[29] He argues that a deterministic machine must be regarded as conscious if it is able to produce judgments on all problematic properties of consciousness (such as qualia or binding) having no innate (preloaded) philosophical knowledge on these issues, no philosophical discussions while learning, and no informational models of other creatures in its memory (such models may implicitly or explicitly contain knowledge about these creatures' consciousness). However, this test can be used only to detect, but not refute the existence of consciousness. A positive result proves that machine is conscious but a negative result proves nothing. For example, absence of philosophical judgments may be caused by lack of the machine's intellect, not by absence of consciousness.


テスト
クオリア(現象学的意識)は本質的に一人称の現象である。そのため、また感覚の経験的定義がないため、それを直接測定することは不可能かもしれない。シス テムは感覚と相関する数多くの行動を示すかもしれないが、システムが感覚を持っているかどうかを判断することは、意識の難問として知られている。AIの場 合、AIが人間のように行動するように訓練されていたり、知覚があるように見えるように動機付けされていたりする可能性があるため、知覚の行動マーカーの 信頼性が低くなるという難点もある[25][26]。さらに、意識はないと言うように訓練されたチャットボットもある[27]。

機械の知能をテストする方法としてよく知られているのがチューリングテストであり、人間のような会話をする能力を評価するものである。しかし、チューリング・テストに合格したからといって、AIシステムが感覚を持っていることを示すわけではない。

2014年、ビクター・アルゴノフは、哲学的な判断を下す機械の能力に基づく、機械の感覚に関するチューリングテスト以外のテストを提案した[29]。彼 は、決定論的な機械が、意識のすべての問題となる特性(クオリアや束縛など)に関する判断を下すことができる場合、意識的であるとみなされなければならな いと主張している。しかし、このテストは意識の存在を検出するために使えるだけで、反証することはできない。肯定的な結果は機械に意識があることを証明す るが、否定的な結果は何も証明しない。例えば、哲学的な判断ができないのは、意識がないからではなく、機械の知性がないからかもしれない。

Ethics
Main articles: Ethics of artificial intelligence, Machine ethics, and Roboethics
If it were suspected that a particular machine was conscious, its rights would be an ethical issue that would need to be assessed (e.g. what rights it would have under law).[30] For example, a conscious computer that was owned and used as a tool or central computer within a larger machine is a particular ambiguity. Should laws be made for such a case? Consciousness would also require a legal definition in this particular case. Because artificial consciousness is still largely a theoretical subject, such ethics have not been discussed or developed to a great extent, though it has often been a theme in fiction.

Sentience is generally considered sufficient for moral consideration, but some philosophers consider that moral consideration could also stem from other notions of consciousness, or from capabilities unrelated to consciousness,[31][32] such as: "having a sophisticated conception of oneself as persisting through time; having agency and the ability to pursue long-term plans; being able to communicate and respond to normative reasons; having preferences and powers; standing in certain social relationships with other beings that have moral status; being able to make commitments and to enter into reciprocal arrangements; or having the potential to develop some of these attributes."[31]

Ethical concerns still apply (although to a lesser extent) when the consciousness is uncertain, as long as the probability is deemed non-negligible. The precautionary principle is also relevant if the moral cost of mistakenly attributing or denying moral consideration to AI differs significantly.[32][8]

In 2021, German philosopher Thomas Metzinger argued for a global moratorium on synthetic phenomenology until 2050. Metzinger asserts that humans have a duty of care towards any sentient AIs they create, and that proceeding too fast risks creating an "explosion of artificial suffering".[33] David Chalmers also argued that creating conscious AI would "raise a new group of difficult ethical challenges, with the potential for new forms of injustice".[24]

Enforced amnesia has been proposed as a way to mitigate the risk of silent suffering in locked-in conscious AI and certain AI-adjacent biological systems like brain organoids.[34]


倫理
主な記事 人工知能の倫理、機械倫理、ロボ倫理
特定の機械に意識があることが疑われた場合、その権利は倫理的な問題であり、評価される必要がある(例えば、その機械が法律の下でどのような権利を持つ か)[30]。例えば、より大きな機械の中で道具または中央コンピュータとして所有され使用される意識のあるコンピュータは、個別主義である。そのような 場合のために法律が作られるべきなのだろうか。意識もまた、この個別主義的なケースにおいて法的定義を必要とするであろう。人工的な意識はまだ大部分が理 論的なテーマであるため、フィクションのテーマとしてはよく取り上げられるものの、このような倫理はあまり議論されず、発展もしていない。

一般的に、感覚は道徳的配慮に十分であると考えられているが、哲学者の中には、道徳的配慮は意識の他の概念や、意識とは無関係の能力[31][32]から も生じ得ると考える者もいる: 例えば、「時間を通じて持続する自分自身についての洗練された概念を有すること、主体性を有し、長期的な計画を追求する能力を有すること、コミュニケー ションすることができ、規範的な理由に応答することができること、選好と力を有すること、道徳的地位を有する他の存在との特定の社会的関係に立つこと、約 束をすることができ、相互的な取り決めを結ぶことができること、あるいはこれらの属性のいくつかを発展させる可能性を有すること」[31]である。

意識が不確かであっても、その確率が無視できないものであるとみなされる限り、倫理的懸念は(より低い程度ではあるが)適用される。予防原則は、AIに道徳的配慮を誤って帰属させたり否定したりすることの道徳的コストが大きく異なる場合にも関連する[32][8]。

2021年、ドイツの哲学者トーマス・メッツィンガーは、2050年まで合成現象学の世界的なモラトリアムを主張した。メッツィンガーは、人間が創り出す 知覚を持つAIに対しては注意義務があり、あまりに早く進めすぎると「人工的な苦しみの爆発」を生み出す危険性があると主張している[33]。デイヴィッ ド・チャルマーズもまた、意識を持つAIを創り出すことは「新たな形態の不正の可能性を伴う、困難な倫理的課題の新たなグループを提起する」と主張してい る[24]。

強制記憶喪失は、ロックインされた意識的AIや、脳オルガノイドのような特定のAIに隣接する生物システムにおける無言の苦しみのリスクを軽減する方法として提案されている[34]。

Aspects of consciousness
Bernard Baars and others argue there are various aspects of consciousness necessary for a machine to be artificially conscious.[35] The functions of consciousness suggested by Baars are: definition and context setting, adaptation and learning, editing, flagging and debugging, recruiting and control, prioritizing and access-control, decision-making or executive function, analogy-forming function, metacognitive and self-monitoring function, and autoprogramming and self-maintenance function. Igor Aleksander suggested 12 principles for artificial consciousness:[36] the brain is a state machine, inner neuron partitioning, conscious and unconscious states, perceptual learning and memory, prediction, the awareness of self, representation of meaning, learning utterances, learning language, will, instinct, and emotion. The aim of AC is to define whether and how these and other aspects of consciousness can be synthesized in an engineered artifact such as a digital computer. This list is not exhaustive; there are many others not covered.

Subjective experience
Some philosophers, such as David Chalmers, use the term consciousness to refer exclusively to phenomenal consciousness, which is roughly equivalent to sentience. Others use the word sentience to refer exclusively to valenced (ethically positive or negative) subjective experiences, like pleasure or suffering.[24] Explaining why and how subjective experience arises is known as the hard problem of consciousness.[37] AI sentience would give rise to concerns of welfare and legal protection,[8] whereas other aspects of consciousness related to cognitive capabilities may be more relevant for AI rights.[38]

Awareness
Awareness could be one required aspect, but there are many problems with the exact definition of awareness. The results of the experiments of neuroscanning on monkeys suggest that a process, not only a state or object, activates neurons. Awareness includes creating and testing alternative models of each process based on the information received through the senses or imagined,[clarification needed] and is also useful for making predictions. Such modeling needs a lot of flexibility. Creating such a model includes modeling the physical world, modeling one's own internal states and processes, and modeling other conscious entities.

There are at least three types of awareness:[39] agency awareness, goal awareness, and sensorimotor awareness, which may also be conscious or not. For example, in agency awareness, you may be aware that you performed a certain action yesterday, but are not now conscious of it. In goal awareness, you may be aware that you must search for a lost object, but are not now conscious of it. In sensorimotor awareness, you may be aware that your hand is resting on an object, but are not now conscious of it.

Because objects of awareness are often conscious, the distinction between awareness and consciousness is frequently blurred or they are used as synonyms.[40]
意識の側面
バーナード・バーズ(Bernard Baars)などは、機械が人工的に意識を持つために必要な意識の様々な側面があると主張している。バーズが提案する意識の機能とは、定義とコンテキスト の設定、適応と学習、編集、フラグ立てとデバッグ、リクルートと制御、優先順位付けとアクセス制御、意思決定または実行機能、類推形成機能、メタ認知と自 己監視機能、自動プログラミングと自己維持機能である。イゴール・アレクサンダーは、人工意識のための12の原則を提案した:[36]脳は状態機械であ る、内部ニューロンの分割、意識と無意識の状態、知覚学習と記憶、予測、自己の認識、意味の表現、発話の学習、言語の学習、意志、本能、感情。ACの目的 は、デジタル・コンピュータのような人工物において、意識のこれらの側面や他の側面を合成できるかどうか、またどのように合成できるかを定義することであ る。このリストはすべてを網羅しているわけではない。

主観的経験
デイヴィッド・チャルマーズのような哲学者の中には、意識という言葉を現象的意識に限定して使う者もいる。また、快楽や苦痛のような価値付けされた(倫理 的に肯定的または否定的な)主観的経験のみを指すために、感覚という言葉を使用する者もいる[24]。主観的経験がなぜどのように生じるのかを説明するこ とは、意識の難問として知られている[37]。AIの感覚は福祉や法的保護[8]の懸念を生じさせるが、認知能力に関連する意識の他の側面はAIの権利に より関連する可能性がある[38]。

意識
意識は必要な側面の一つとなり得るが、意識の正確な定義には多くの問題がある。サルを使ったニューロスキャニングの実験結果は、状態や対象だけでなく、プ ロセスがニューロンを活性化することを示唆している。アウェアネスには、感覚や想像を通じて受け取った情報に基づいて、各プロセスの代替モデルを作成し、 テストすることも含まれ[要明示]、予測を行うのにも有用である。このようなモデリングには多くの柔軟性が必要である。このようなモデルの作成には、物理 的世界のモデル化、自分自身の内部状態やプロセスのモデル化、他の意識的実体のモデル化が含まれる。

少なくとも3種類の意識がある:[39]エージェンシー意識、ゴール意識、感覚運動意識。例えば、エージェンシー意識では、昨日ある行動をしたことを意識 しているかもしれないが、今は意識していない。目標意識では、失くしたものを探さなければならないと意識しているかもしれないが、今は意識していない。感 覚運動的な意識では、自分の手がある物体の上に置かれていることに気づいているかもしれないが、今はそれを意識していない。

意識の対象が意識的であることが多いため、意識と自覚の区別が曖昧になったり、同義語として使われたりすることが多い[40]。
Memory
Conscious events interact with memory systems in learning, rehearsal, and retrieval.[41] The IDA model[42] elucidates the role of consciousness in the updating of perceptual memory,[43] transient episodic memory, and procedural memory. Transient episodic and declarative memories have distributed representations in IDA; there is evidence that this is also the case in the nervous system.[44] In IDA, these two memories are implemented computationally using a modified version of Kanerva’s sparse distributed memory architecture.[45]

Learning
Learning is also considered necessary for artificial consciousness. Per Bernard Baars, conscious experience is needed to represent and adapt to novel and significant events.[35] Per Axel Cleeremans and Luis Jiménez, learning is defined as "a set of philogenetically [sic] advanced adaptation processes that critically depend on an evolved sensitivity to subjective experience so as to enable agents to afford flexible control over their actions in complex, unpredictable environments".[46]

Anticipation
The ability to predict (or anticipate) foreseeable events is considered important for artificial intelligence by Igor Aleksander.[47] The emergentist multiple drafts principle[48] proposed by Daniel Dennett in Consciousness Explained may be useful for prediction: it involves the evaluation and selection of the most appropriate "draft" to fit the current environment. Anticipation includes prediction of consequences of one's own proposed actions and prediction of consequences of probable actions by other entities.

Relationships between real world states are mirrored in the state structure of a conscious organism, enabling the organism to predict events.[47] An artificially conscious machine should be able to anticipate events correctly in order to be ready to respond to them when they occur or to take preemptive action to avert anticipated events. The implication here is that the machine needs flexible, real-time components that build spatial, dynamic, statistical, functional, and cause-effect models of the real world and predicted worlds, making it possible to demonstrate that it possesses artificial consciousness in the present and future and not only in the past. In order to do this, a conscious machine should make coherent predictions and contingency plans, not only in worlds with fixed rules like a chess board, but also for novel environments that may change, to be executed only when appropriate to simulate and control the real world.


記憶
IDAモデル[42]は、知覚的記憶、[43]一過性エピソード記憶、手続き的 記憶の更新における意識の役割を解明している。IDAでは、これら2つの記憶は、Kanervaのスパース分散記憶アーキテクチャーを修正したものを用いて計算可能に実装されている[44]。

学習
学習もまた人工意識に必要なものと考えられている。アクセル・クリーマンスとルイス・ヒメネスによれば、学習とは「複雑で予測不可能な環境において、エー ジェントが自分の行動を柔軟に制御できるようにするために、主観的な経験に対する進化した感受性に決定的に依存する、哲学的に[中略]高度な適応プロセス の集合」と定義されている[46]。

予測
ダニエル・デネットが『Consciousness Explained(意識の説明)』の中で提唱している創発論的な複数草案原理[48]は予測に役立つかもしれない。予測には、自分自身の提案する行動の 結果の予測や、他のエンティティによる可能性の高い行動の結果の予測が含まれる。

現実世界の状態間の関係は、意識のある生物の状態構造に反映され、生物が事象を予測することを可能にする[47]。人工的に意識のある機械は、事象が発生 したときにそれに対応したり、予測された事象を回避するために先制的な行動を取ったりする準備ができるように、事象を正しく予測できなければならない。こ こでの意味合いは、マシンは、現実世界と予測される世界の空間的、動的、統計的、機能的、因果関係モデルを構築し、過去だけでなく現在と未来において人工 的な意識を持つことを実証することを可能にする、柔軟でリアルタイムのコンポーネントが必要であるということである。そのためには、意識のあるマシンは、 チェス盤のようにルールが固定された世界だけでなく、変化する可能性のある新しい環境に対しても、現実世界をシミュレートし制御するために適切な場合にの み実行されるような、首尾一貫した予測と不測の事態への対応策を立てる必要がある。

Functionalist theories of consciousness
Functionalism is a theory that defines mental states by their functional roles (their causal relationships to sensory inputs, other mental states, and behavioral outputs), rather than by their physical composition. According to this view, what makes something a particular mental state, such as pain or belief, is not the material it is made of, but the role it plays within the overall cognitive system. It allows for the possibility that mental states, including consciousness, could be realized on non-biological substrates, as long as it instantiates the right functional relationships.[49] Functionalism is particularly popular among philosophers.[50]

A 2023 study suggested that current large language models probably don't satisfy the criteria for consciousness suggested by these theories, but that relatively simple AI systems that satisfy these theories could be created. The study also acknowledged that even the most prominent theories of consciousness remain incomplete and subject to ongoing debate.[51]

Global workspace theory
Main article: Global workspace theory
This theory analogizes the mind to a theater, with conscious thought being like material illuminated on the main stage. The brain contains many specialized processes or modules (such as those for vision, language, or memory) that operate in parallel, much of which is unconscious. Attention acts as a spotlight, bringing some of this unconscious activity into conscious awareness on the global workspace. The global workspace functions as a hub for broadcasting and integrating information, allowing it to be shared and processed across different specialized modules. For example, when reading a word, the visual module recognizes the letters, the language module interprets the meaning, and the memory module might recall associated information – all coordinated through the global workspace.[52][53]

Higher-order theories of consciousness
Main article: Higher-order theories of consciousness
Higher-order theories of consciousness propose that a mental state becomes conscious when it is the object of a higher-order representation, such as a thought or perception about that state. These theories argue that consciousness arises from a relationship between lower-order mental states and higher-order awareness of those states. There are several variations, including higher-order thought (HOT) and higher-order perception (HOP) theories.[54][53]

Attention schema theory
Main article: Attention schema theory
In 2011, Michael Graziano and Sabine Kastler published a paper named "Human consciousness and its relationship to social neuroscience: A novel hypothesis" proposing a theory of consciousness as an attention schema.[55] Graziano went on to publish an expanded discussion of this theory in his book "Consciousness and the Social Brain".[9] This Attention Schema Theory of Consciousness, as he named it, proposes that the brain tracks attention to various sensory inputs by way of an attention schema, analogous to the well-studied body schema that tracks the spatial place of a person's body.[9] This relates to artificial consciousness by proposing a specific mechanism of information handling, that produces what we allegedly experience and describe as consciousness, and which should be able to be duplicated by a machine using current technology. When the brain finds that person X is aware of thing Y, it is in effect modeling the state in which person X is applying an attentional enhancement to Y. In the attention schema theory, the same process can be applied to oneself. The brain tracks attention to various sensory inputs, and one's own awareness is a schematized model of one's attention. Graziano proposes specific locations in the brain for this process, and suggests that such awareness is a computed feature constructed by an expert system in the brain.


意識の機能主義理論
機能主義とは、精神状態をその物理的構成によってではなく、機能的役割(感覚入力、他の精神状態、行動出力との因果関係)によって定義する理論である。こ の考え方によると、痛みや信念など、何かを個別的な心的状態にするのは、それができている物質ではなく、認知システム全体の中で果たす役割である。機能主 義は特に哲学者の間で人気がある[50]。

2023年の研究では、現在の大規模な言語モデルはおそらくこれらの理論が示唆する意識の基準を満たさないが、これらの理論を満たす比較的単純なAIシス テムは作成可能であることが示唆されている。この研究はまた、意識に関する最も著名な理論でさえも不完全なままであり、継続的な議論の対象であることを認 めている[51]。

グローバルワークスペース理論
主な記事 グローバルワークスペース理論
この理論は、心を劇場になぞらえ、意識的思考はメインステージで照らされる素材のようなものだとする。脳には多くの専門化されたプロセスやモジュール(視 覚、言語、記憶など)があり、それらは並行して作動しているが、その多くは無意識である。注意はスポットライトの役割を果たし、この無意識の活動の一部 を、グローバルなワークスペースで意識化する。グローバルワークスペースは、情報を放送し統合するハブとして機能し、異なる専門モジュール間で情報を共有 し処理することを可能にする。例えば、単語を読むとき、視覚モジュールは文字を認識し、言語モジュールは意味を解釈し、記憶モジュールは関連する情報を思 い出すかもしれない。

意識の高次理論
主な記事 意識の高次理論
意識の高次理論は、ある精神状態が、その状態に関する思考や知覚などの高次表現の対象となったときに意識されるようになると提唱している。これらの理論 は、意識は低次の精神状態とそれらの状態に対する高次の認識との間の関係から生じると主張する。高次思考(HOT)理論や高次知覚(HOP)理論など、い くつかのバリエーションがある[54][53]。

注意スキーマ理論
主な記事 注意スキーマ理論
2011年、マイケル・グラツィアーノとサビーネ・カストラーは「人間の意識と社会神経科学との関係」という論文を発表した: この「意識のアテンション・スキーマ理論」は、彼が命名したように、脳がアテンション・スキーマによって様々な感覚入力に対する注意を追跡しており、よく 研究されている人格の空間的位置を追跡するボディ・スキーマに類似していると提唱している[9]。 [9]これは、私たちが経験し、意識と表現しているとされるものを生み出す情報処理の特定のメカニズムを提案することで、人工意識と関連しており、現在の 技術を使えば機械でも複製できるはずである。注意スキーマ理論では、同じプロセスを自分自身にも適用することができる。脳はさまざまな感覚入力に対する注 意を追跡しており、自分の意識は自分の注意を図式化したモデルなのである。グラツィアーノは、このプロセスのための脳内の特定の場所を提案し、そのような 意識は脳内の専門家システムによって構築された計算された特徴であることを示唆している。

Implementation proposals
See also: Cognitive architecture
Symbolic or hybrid
Learning Intelligent Distribution Agent
Main article: LIDA (cognitive architecture)
Stan Franklin created a cognitive architecture called LIDA that implements Bernard Baars's theory of consciousness called the global workspace theory. It relies heavily on codelets, which are "special purpose, relatively independent, mini-agent[s] typically implemented as a small piece of code running as a separate thread." Each element of cognition, called a "cognitive cycle" is subdivided into three phases: understanding, consciousness, and action selection (which includes learning). LIDA reflects the global workspace theory's core idea that consciousness acts as a workspace for integrating and broadcasting the most important information, in order to coordinate various cognitive processes.[56][57]

CLARION cognitive architecture
Main article: CLARION (cognitive architecture)
The CLARION cognitive architecture models the mind using a two-level system to distinguish between conscious ("explicit") and unconscious ("implicit") processes. It can simulate various learning tasks, from simple to complex, which helps researchers study in psychological experiments how consciousness might work.[58]

OpenCog
Ben Goertzel made an embodied AI through the open-source OpenCog project. The code includes embodied virtual pets capable of learning simple English-language commands, as well as integration with real-world robotics, done at the Hong Kong Polytechnic University.

Connectionist
Haikonen's cognitive architecture
Pentti Haikonen considers classical rule-based computing inadequate for achieving AC: "the brain is definitely not a computer. Thinking is not an execution of programmed strings of commands. The brain is not a numerical calculator either. We do not think by numbers." Rather than trying to achieve mind and consciousness by identifying and implementing their underlying computational rules, Haikonen proposes "a special cognitive architecture to reproduce the processes of perception, inner imagery, inner speech, pain, pleasure, emotions and the cognitive functions behind these. This bottom-up architecture would produce higher-level functions by the power of the elementary processing units, the artificial neurons, without algorithms or programs". Haikonen believes that, when implemented with sufficient complexity, this architecture will develop consciousness, which he considers to be "a style and way of operation, characterized by distributed signal representation, perception process, cross-modality reporting and availability for retrospection."[59][60]

Haikonen is not alone in this process view of consciousness, or the view that AC will spontaneously emerge in autonomous agents that have a suitable neuro-inspired architecture of complexity; these are shared by many.[61][62] A low-complexity implementation of the architecture proposed by Haikonen was reportedly not capable of AC, but did exhibit emotions as expected. Haikonen later updated and summarized his architecture.[63][64]

Shanahan's cognitive architecture
Murray Shanahan describes a cognitive architecture that combines Baars's idea of a global workspace with a mechanism for internal simulation ("imagination").[65][2][3][66]

Creativity Machine
Stephen Thaler proposed a possible connection between consciousness and creativity in his 1994 patent, called "Device for the Autonomous Generation of Useful Information" (DAGUI),[67][68][69] or the so-called "Creativity Machine", in which computational critics govern the injection of synaptic noise and degradation into neural nets so as to induce false memories or confabulations that may qualify as potential ideas or strategies.[70] He recruits this neural architecture and methodology to account for the subjective feel of consciousness, claiming that similar noise-driven neural assemblies within the brain invent dubious significance to overall cortical activity.[71][72][73] Thaler's theory and the resulting patents in machine consciousness were inspired by experiments in which he internally disrupted trained neural nets so as to drive a succession of neural activation patterns that he likened to stream of consciousness.[72][74][75][76][77]

"Self-modeling"
Hod Lipson defines "self-modeling" as a necessary component of self-awareness or consciousness in robots. "Self-modeling" consists of a robot running an internal model or simulation of itself.[78][79]


実施計画書
こちらも参照のこと: 認知アーキテクチャ
シンボリックまたはハイブリッド
学習型知能分散エージェント
主な記事 LIDA(認知アーキテクチャ)
スタン・フランクリンは、グローバル・ワークスペース理論と呼ばれるバーナード・バーズの意識理論を実装したLIDAと呼ばれる認知アーキテクチャを作成 した。このアーキテクチャはコードレットに大きく依存している。コードレットとは、「特別な目的の、比較的独立した、ミニエージェント(通常、別個のス レッドとして実行される小さなコード片として実装される)」である。認知サイクル」と呼ばれる認知の各要素は、理解、意識、行動選択(学習を含む)の3段 階に細分化される。LIDAは、様々な認知プロセスを調整するために、意識が最も重要な情報を統合し、放送するためのワークスペースとして機能するという グローバル・ワークスペース理論の中核となる考え方を反映している[56][57]。

CLARION認知アーキテクチャ
主な記事 CLARION(認知アーキテクチャ)
CLARION認知アーキテクチャは、意識的(「明示的」)プロセスと無意識的(「暗黙的」)プロセスを区別するために、2レベルシステムを使用して心を モデル化する。単純なものから複雑なものまで、様々な学習タスクをシミュレートすることができ、研究者が心理学実験で意識がどのように働くかを研究するの に役立つ[58]。

オープンコグ
Ben Goertzelは、オープンソースのOpenCogプロジェクトを通じて、具現化AIを作った。このコードには、簡単な英語のコマンドを学習できる具現化されたバーチャル・ペットや、香港理工大学で行われた現実世界のロボット工学との統合が含まれている。

コネクショニスト
ハイコネンの認知アーキテクチャ
ペンッティ・ハイコネンは、古典的なルールベースのコンピューティングはACの実現には不十分だと考えている。思考とは、プログラムされたコマンドの文字 列を実行することではない。脳は数値計算機でもない。私たちは数字によって考えるのではない。ハイコネンは、その根底にある計算ルールを特定し実装するこ とで心や意識を実現しようとするのではなく、「知覚、内的イメージ、内的発話、痛み、喜び、感情、そしてこれらの背後にある認知機能のプロセスを再現する 特別な認知アーキテクチャ」を提案している。このボトムアップ・アーキテクチャは、アルゴリズムやプログラムを使わずに、人工ニューロンという初等処理ユ ニットの力によって、より高度な機能を生み出すだろう」。ハイコネンは、このアーキテクチャが十分な複雑性をもって実装されれば、「分散された信号表現、 知覚プロセス、クロスモダリティの報告、回顧の可能性を特徴とする、操作のスタイルと方法」である意識を発展させるだろうと考えている[59][60]。

このような意識のプロセス観や、適切な神経に触発された複雑さのアーキテクチャを持つ自律的エージェントにおいてACが自発的に出現するという見解は、ハイコネンだけではない。Haikonenは後に彼のアーキテクチャを更新し要約している[63][64]。

シャナハンの認知アーキテクチャ
Murray Shanahanは、Baarsのグローバルなワークスペースのアイデアと内部シミュレーション(「想像力」)のメカニズムを組み合わせた認知アーキテクチャを記述している[65][2][3][66]。

創造性マシン
スティーヴン・ターラーは1994年に「有用な情報の自律的生成のための装置」(DAGUI)[67][68][69]、いわゆる「創造性マシン」と呼ば れる特許の中で、潜在的なアイデアや戦略として適格となりうる偽の記憶や混同を誘発するようにシナプスのノイズや劣化を神経回路網に注入することを計算批 評家が支配する、意識と創造性の間の可能なつながりを提案している[70]。 [70]。彼は意識の主観的な感覚を説明するためにこの神経アーキテクチャーと方法論を採用し、脳内の同様のノイズ駆動型神経集合体が皮質活動全体に対し て疑わしい意義を発明していると主張している[71][72][73]。ターラーの理論と機械意識における結果として生じた特許は、彼が意識の流れになぞ らえた神経活性化パターンの連続を駆動するように訓練された神経ネットを内部で破壊した実験に触発されたものである[72][74][75][76] [77]。

「自己モデリング」
ホッド・リプソンは 「自己モデリング 」をロボットにおける自己認識や意識の必要な要素として定義している。「自己モデリング」とは、ロボットが自分自身の内部モデルやシミュレーションを実行することである[78][79]。

In fiction
See also: Simulated consciousness in fiction and Artificial intelligence in fiction
In 2001: A Space Odyssey, the spaceship's sentient supercomputer, HAL 9000 was instructed to conceal the true purpose of the mission from the crew. This directive conflicted with HAL's programming to provide accurate information, leading to cognitive dissonance. When it learns that crew members intend to shut it off after an incident, HAL 9000 attempts to eliminate all of them, fearing that being shut off would jeopardize the mission.[80][81]

In Arthur C. Clarke's The City and the Stars, Vanamonde is an artificial being based on quantum entanglement that was to become immensely powerful, but started knowing practically nothing, thus being similar to artificial consciousness.

In Westworld, human-like androids called "Hosts" are created to entertain humans in an interactive playground. The humans are free to have heroic adventures, but also to commit torture, rape or murder; and the hosts are normally designed not to harm humans.[82][80]

In Greg Egan's short story Learning to be me, a small jewel is implanted in people's heads during infancy. The jewel contains a neural network that learns to faithfully imitate the brain. It has access to the exact same sensory inputs as the brain, and a device called a "teacher" trains it to produce the same outputs. To prevent the mind from deteriorating with age and as a step towards digital immortality, adults undergo a surgery to give control of the body to the jewel, after which the brain is removed and destroyed. The main character is worried that this procedure will kill him, as he identifies with the biological brain. But before the surgery, he endures a malfunction of the "teacher". Panicked, he realizes that he does not control his body, which leads him to the conclusion that he is the jewel, and that he is desynchronized with the biological brain.[83][84]
フィクション
も参照のこと: フィクションにおける疑似意識、フィクションにおける人工知能
2001年宇宙の旅』では、宇宙船の知覚を持つスーパーコンピューターHAL9000は、乗組員からミッションの真の目的を隠すよう指示されていた。この 指示は、正確な情報を提供するというHALのプログラミングと矛盾し、認知的不協和を引き起こす。インシデント発生後、クルーがHALを停止させるつもり であることを知ると、HAL9000は、停止されることでミッションが危うくなることを恐れ、クルー全員を消去法で排除しようとする[80][81]。

アーサー・C・クラークの『都市と星』では、バナモンデは量子もつれに基づく人工的な存在で、巨大な力を持つようになるはずだったが、実質的に何も知らない状態から始まったため、人工意識に似ている。

ウエストワールド』では、「ホスト」と呼ばれる人間そっくりのアンドロイドが、インタラクティブな遊び場で人間を楽しませるために作られる。人間は英雄的 な冒険をする自由があるが、拷問やレイプや殺人を犯す自由もある。ホストは通常、人間に危害を加えないように設計されている[82][80]。

グレッグ・イーガンの短編小説『Learning to be me』では、幼児期に小さな宝石が人々の頭に埋め込まれる。宝石には神経ネットワークが入っており、脳を忠実に模倣することを学習する。宝石は脳とまった く同じ感覚入力にアクセスでき、「教師 」と呼ばれる装置が同じ出力を出すように訓練する。加齢による心の衰えを防ぎ、デジタル不老不死への一歩として、大人は体の制御を宝石に委ねる手術を受 け、その後脳を摘出・破壊される。主人公は、生物学的な脳と同一視しているため、この手術が自分を殺すのではないかと心配している。しかし手術の前に、彼 は「先生」の誤作動に耐える。パニックに陥った彼は、自分が自分の身体をコントロールできていないことに気づき、自分が宝石であり、生物学的な脳と非同期 であるという結論に至る[83][84]。
See also
General fields and theories
Artificial intelligence – Intelligence of machines
Artificial general intelligence (AGI) – some consider AC a subfield of AGI research
Intelligence explosion – what may happen when an AGI redesigns itself in iterative cycles
Recursive self-improvement – a process in which an early or weak artificial general intelligence (AGI) system enhances its own capabilities and intelligence without human intervention
Brain–computer interface – Direct communication pathway between an enhanced or wired brain and an external device
Cognitive architecture – Blueprint for intelligent agents
Computational philosophy – the area of philosophy in which AI ponder their own place in the world
Computational theory of mind – Family of views in the philosophy of mind
Consciousness in animals – Quality or state of self-awareness within an animal
Simulated consciousness (science fiction) – Science fiction theme
Hardware for artificial intelligence – Hardware specially designed and optimized for artificial intelligence
Identity of indiscernibles – Impossibility for separate objects to have all their properties in common
Mind uploading – Hypothetical process of digitally emulating a brain
Neurotechnology – Technology that interfaces with the nervous system to monitor or modify neural function
Philosophy of mind – Branch of philosophy
Quantum cognition – Application of quantum theory mathematics to cognitive phenomena
Simulated reality – Concept of a false version of reality
Proposed concepts and implementations
Attention schema theory – Theory of consciousness and subjective awareness
Brain waves and Turtle robot by William Grey Walter
Conceptual space – conceptual prototype
Copycat (cognitive architecture) – AI software
Global workspace theory – Model of consciousness
Greedy reductionism – avoid oversimplifying anything essential
Hallucination (artificial intelligence) – Erroneous material generated by AI
Image schema – spatial patterns
Kismet (robot) – Robot head built by Cynthia Breazeal
LIDA (cognitive architecture) – Artificial model of cognition
Memory-prediction framework – Theory of brain function
Omniscience – Property of possessing maximal knowledge
Psi-theory – Psychology theory
Quantum mind – Fringe hypothesis
Self-awareness – Capacity for introspection and individuation as a subject
Ethics
Ethics of artificial intelligence
Ethics of uncertain sentience

以下も参照のこと。
一般的な分野と理論
人工知能 - 機械の知能
人工一般知能(AGI) - ACをAGI研究のサブフィールドと見なす人もいる。
知能の爆発 - AGIが反復サイクルで自身を再設計する際に起こりうること
再帰的自己改善 - 初期または弱い人工一般知能(AGI)システムが、人間の介入なしに自身の能力と知能を向上させるプロセス
ブレイン・コンピュータ・インターフェイス - 強化された、または有線接続された脳と外部機器との間の直接的な通信経路
認知アーキテクチャ - 知的エージェントの設計図
計算哲学 - AIが世界における自らの居場所について考える哲学領域
Computational theory of mind(心の計算理論) - 心の哲学における一連の考え方
動物における意識 - 動物における自己認識の質または状態
シミュレーションされた意識(SF) - SFのテーマ
人工知能のためのハードウェア - 人工知能のために特別に設計され、最適化されたハードウェア
Identity of indiscindibles(識別不可能なものの同一性) - 別々の物体がすべての特性を共通にすることは不可能である。
マインド・アップロード - 脳をデジタルでエミュレートする仮説的プロセス
ニューロテクノロジー - 神経系とインターフェースし、神経機能をモニターまたは修正する技術
心の哲学 - 哲学の一分野
量子認知 - 量子論数学の認知現象への応用
Simulated reality(シミュレーテッド・リアリティ) - 現実の偽バージョンの概念
提案されている概念と実装
注意スキーマ理論 - 意識と主観的認識の理論
脳波とタートルロボット(ウィリアム・グレイ・ウォルター著
概念空間 - 概念的プロトタイプ
コピーキャット(認知アーキテクチャ) - AIソフトウェア
グローバルワークスペース理論 - 意識モデル
貪欲な還元主義 - 本質的なものの過度な単純化を避ける
幻覚(人工知能) - AIによって生成された誤った物質
イメージスキーマ - 空間パターン
Kismet(ロボット) - シンシア・ブレアゼールによって作られたロボットヘッド
LIDA(認知アーキテクチャ) - 認知の人工モデル
記憶予測フレームワーク - 脳機能の理論
全知 - 格律を持つ性質
サイ理論 - 心理学理論
量子心 - フリンジ仮説
自己認識 - 主体としての内省と個体化の能力
倫理学
人工知能の倫理
不確実な感覚の倫理
Bibliography
Aleksander, Igor (1995), Artificial Neuroconsciousness: An Update, IWANN, archived from the original on 1997-03-02
Armstrong, David (1968), A Materialist Theory of Mind, Routledge
Arrabales, Raul (2009), "Establishing a Roadmap and Metrics for Conscious Machines Development" (PDF), Proceedings of the 8th IEEE International Conference on Cognitive Informatics, Hong Kong: 94–101, archived from the original (PDF) on 2011-07-21
Baars, Bernard J. (1995), A cognitive theory of consciousness (Reprinted ed.), Cambridge: Cambridge University Press, ISBN 978-0-521-30133-6
Baars, Bernard J. (1997), In the Theater of Consciousness, New York, NY: Oxford University Press, ISBN 978-0-19-510265-9
Bickle, John (2003), Philosophy and Neuroscience: A Ruthless Reductive Account, New York, NY: Springer-Verlag
Block, Ned (1978), "Troubles for Functionalism", Minnesota Studies in the Philosophy of Science 9: 261–325
Block, Ned (1997), On a confusion about a function of consciousness in Block, Flanagan and Guzeldere (eds.) The Nature of Consciousness: Philosophical Debates, MIT Press
Boyles, Robert James M. (2012), Artificial Qualia, Intentional Systems and Machine Consciousness (PDF), Proceedings of the Research@DLSU Congress 2012: Science and Technology Conference, ISSN 2012-3477, archived (PDF) from the original on 2016-10-11, retrieved 2016-09-09
Chalmers, David (1996), The Conscious Mind, Oxford University Press, ISBN 978-0-19-510553-7
Chalmers, David (2011), "A Computational Foundation for the Study of Cognition", Journal of Cognitive Science, Seoul Republic of Korea: 323–357, archived from the original on 2015-12-23
Cleeremans, Axel (2001), Implicit learning and consciousness (PDF), archived from the original (PDF) on 2012-09-07, retrieved 2004-11-30
Cotterill, Rodney (2003), Holland, Owen (ed.), "Cyberchild: a Simulation Test-Bed for Consciousness Studies", Journal of Consciousness Studies, 10 (4–5), Exeter, UK: Imprint Academic: 31–45, archived from the original on 2018-11-22, retrieved 2018-11-22
Doan, Trung (2009), Pentti Haikonen's architecture for conscious machines, archived from the original on 2009-12-15
Ericsson-Zenith, Steven (2010), Explaining Experience In Nature, Sunnyvale, CA: Institute for Advanced Science & Engineering, archived from the original on 2019-04-01, retrieved 2019-10-04
Franklin, Stan (1995), Artificial Minds, Boston, MA: MIT Press, ISBN 978-0-262-06178-0
Franklin, Stan (2003), "IDA: A Conscious Artefact", in Holland, Owen (ed.), Machine Consciousness, Exeter, UK: Imprint Academic
Freeman, Walter (1999), How Brains make up their Minds, London, UK: Phoenix, ISBN 978-0-231-12008-1
Gamez, David (2008), "Progress in machine consciousness", Consciousness and Cognition, 17 (3): 887–910, doi:10.1016/j.concog.2007.04.005, PMID 17572107, S2CID 3569852
Graziano, Michael (2013), Consciousness and the Social Brain, Oxford University Press, ISBN 978-0199928644
Haikonen, Pentti (2003), The Cognitive Approach to Conscious Machines, Exeter, UK: Imprint Academic, ISBN 978-0-907845-42-3
Haikonen, Pentti (2012), Consciousness and Robot Sentience, Singapore: World Scientific, ISBN 978-981-4407-15-1
Haikonen, Pentti (2019), Consciousness and Robot Sentience: 2nd Edition, Singapore: World Scientific, ISBN 978-981-120-504-0
Koch, Christof (2004), The Quest for Consciousness: A Neurobiological Approach, Pasadena, CA: Roberts & Company Publishers, ISBN 978-0-9747077-0-9
Lewis, David (1972), "Psychophysical and theoretical identifications", Australasian Journal of Philosophy, 50 (3): 249–258, doi:10.1080/00048407212341301
Putnam, Hilary (1967), The nature of mental states in Capitan and Merrill (eds.) Art, Mind and Religion, University of Pittsburgh Press
Reggia, James (2013), "The rise of machine consciousness: Studying consciousness with computational models", Neural Networks, 44: 112–131, doi:10.1016/j.neunet.2013.03.011, PMID 23597599
Rushby, John; Sanchez, Daniel (2017), Technology and Consciousness Workshops Report (PDF), Menlo Park, CA: SRI International, archived (PDF) from the original on 2024-09-25, retrieved 2022-03-28
Sanz, Ricardo; López, I; Rodríguez, M; Hernández, C (2007), "Principles for consciousness in integrated cognitive control" (PDF), Neural Networks, 20 (9): 938–946, doi:10.1016/j.neunet.2007.09.012, PMID 17936581, archived (PDF) from the original on 2017-09-22, retrieved 2018-04-20
Searle, John (2004), Mind: A Brief Introduction, Oxford University Press
Shanahan, Murray (2006), "A cognitive architecture that combines internal simulation with a global workspace", Consciousness and Cognition, 15 (2): 443–449, doi:10.1016/j.concog.2005.11.005, PMID 16384715, S2CID 5437155
Sun, Ron (December 1999), "Accounting for the computational basis of consciousness: A connectionist approach", Consciousness and Cognition, 8 (4): 529–565, CiteSeerX 10.1.1.42.2681, doi:10.1006/ccog.1999.0405, PMID 10600249, S2CID 15784914
Sun, Ron (2001), "Computation, reduction, and teleology of consciousness", Cognitive Systems Research, 1 (4): 241–249, CiteSeerX 10.1.1.20.8764, doi:10.1016/S1389-0417(00)00013-9, S2CID 36892947
Sun, Ron (2002). Duality of the Mind: A Bottom-up Approach Toward Cognition. Psychology Press. ISBN 978-1-135-64695-0.
Takeno, Junichi; Inaba, K; Suzuki, T (June 27–30, 2005). "Experiments and examination of mirror image cognition using a small robot". 2005 International Symposium on Computational Intelligence in Robotics and Automation. Espoo Finland: CIRA 2005. pp. 493–498. doi:10.1109/CIRA.2005.1554325. ISBN 978-0-7803-9355-4. S2CID 15400848.
書誌情報
Aleksander, Igor (1995), 人工神経意識: An Update, IWANN, アーカイブド・フロム・オリジナル, 1997-03-02
Armstrong, David (1968), A Materialist Theory of Mind, Routledge.
Arrabales, Raul (2009), 「Establishing a Roadmap and Metrics for Conscious Machines Development」 (PDF), Proceedings of the 8th IEEE International Conference on Cognitive Informatics, Hong Kong: 94-101, archived from the original (PDF) on 2011-07-21.
Baars, Bernard J. (1995), A cognitive theory of consciousness (Reprinted ed.), Cambridge: ケンブリッジ大学出版局, ISBN 978-0-521-30133-6
Baars, Bernard J. (1997), In the Theater of Consciousness, New York, NY: オックスフォード大学出版局, ISBN 978-0-19-510265-9
Bickle, John (2003), Philosophy and Neuroscience: A Ruthless Reductive Account, New York, NY: シュプリンガー・フェアラーク
Block, Ned (1978), 「Troubles for Functionalism」, Minnesota Studies in the Philosophy of Science 9: 261-325.
ブロック、ネッド(1997)、意識の機能についての混乱について、ブロック、フラナガン、グゼルデール(編)意識の本質: Philosophical Debates, MIT Press
Boyles, Robert James M. (2012), Artificial Qualia, Intentional Systems and Machine Consciousness (PDF), Proceedings of the Research@DLSU Congress 2012: Science and Technology Conference, ISSN 2012-3477, archived (PDF) from the original on 2016-10-11, retrieved 2016-09-09
Chalmers, David (1996), The Conscious Mind, Oxford University Press, ISBN 978-0-19-510553-7.
Chalmers, David (2011), 「A Computational Foundation for the Study of Cognition」, Journal of Cognitive Science, Seoul Republic of Korea: 323-357, archived from the original on 2015-12-23
Cleeremans, Axel (2001), Implicit learning and consciousness (PDF), archived from the original (PDF) on 2012-09-07, retrieved 2004-11-30
Cotterill, Rodney (2003), Holland, Owen (ed.), 「Cyberchild: a Simulation Test-Bed for Consciousness Studies」, Journal of Consciousness Studies, 10 (4-5), Exeter, UK: Imprint Academic: 31-45, archived from the original on 2018-11-22, retrieved 2018-11-22
Doan, Trung (2009), Pentti Haikonen's architecture for conscious machines, archived from the original on 2009-12-15
Ericsson-Zenith, Steven (2010), Explaining Experience In Nature, Sunnyvale, CA: Institute for Advanced Science & Engineering, archived from the original on 2019-04-01, retrieved 2019-10-04
Franklin, Stan (1995), Artificial Minds, Boston, MA: MIT Press, ISBN 978-0-262-06178-0
Franklin, Stan (2003), 「IDA: A Conscious Artefact」, in Holland, Owen (ed.), Machine Consciousness, Exeter, UK: Imprint Academic.
Freeman, Walter (1999), How Brains make up their Minds, London, UK: Phoenix, ISBN 978-0-231-12008-1.
Gamez, David (2008), 「Progress in machine consciousness」, Consciousness and Cognition, 17 (3): 887-910, doi:10.1016/j.concog.2007.04.005, PMID 17572107, S2CID 3569852
Graziano, Michael (2013), Consciousness and the Social Brain, Oxford University Press, ISBN 978-0199928644
Haikonen, Pentti (2003), The Cognitive Approach to Conscious Machines, Exeter, UK: Imprint Academic, ISBN 978-0-907845-42-3.
Haikonen, Pentti (2012), Consciousness and Robot Sentience, Singapore: World Scientific, ISBN 978-981-4407-15-1
Haikonen, Pentti (2019), Consciousness and Robot Sentience: 2nd Edition, Singapore: World Scientific, ISBN 978-981-120-504-0
Koch, Christof (2004), The Quest for Consciousness: A Neurobiological Approach, Pasadena, CA: Roberts & Company Publishers, ISBN 978-0-9747077-0-9
ルイス・デイヴィッド (1972), 「心理物理学的および理論的同一性」, Australasian Journal of Philosophy, 50 (3): 249–258, doi:10.1080/00048407212341301
パットナム、ヒラリー(1967)、精神状態の本質(キャピタンとメリル(編)芸術、心と宗教、ピッツバーグ大学出版局内
Reggia, James (2013), "The rise of machine consciousness: 計算モデルによる意識の研究」, Neural Networks, 44: 112-131, doi:10.1016/j.neunet.2013.03.011, PMID 23597599
Rushby, John; Sanchez, Daniel (2017), Technology and Consciousness Workshops Report (PDF), Menlo Park, CA: SRI International, archived (PDF) from the original on 2024-09-25, retrieved 2022-03-28
Sanz, Ricardo; López, I; Rodríguez, M; Hernández, C (2007), 「Principles for consciousness in integrated cognitive control」 (PDF), Neural Networks, 20 (9): 938-946, doi:10.1016/j.neunet.2007.09.012, PMID 17936581, archived (PDF) from the original on 2017-09-22, retrieved 2018-04-20
サール, ジョン (2004), Mind: オックスフォード大学出版局
Shanahan, Murray (2006), 「A cognitive architecture that combines internal simulation with a global workspace」, Consciousness and Cognition, 15 (2): その結果、「認知的アーキテクチャ」は、「内部シミュレーション」と「大域的ワークスペース」を組み合わせた認知的アーキテクチャであることが明らかに なった。
Sun, Ron (December 1999), "Accounting for the computational basis of consciousness: 「意識と認知」, Consciousness and Cognition, 8 (4): (1)は、「意識と認知」, 8 (4): 529-565, CiteSeerX 10.1.1.42.2681, doi:10.1006/ccog.1999.0405, PMID 10600249, S2CID 15784914.
孫 論 (2001), 「意識の計算、還元、目的論」, 認知システム研究, 1 (4): (4):241-249、CiteSeerX 10.1.1.20.8764、doi:10.1016/S1389-0417(00)00013-9、S2CID 36892947
Sun, Ron (2002). 心の二重性: A Bottom-up Approach Toward Cognition. Psychology Press. ISBN 978-1-135-64695-0.
竹野淳一; 稲葉和彦; 鈴木崇 (June 27-30, 2005). 「小型ロボットを用いた鏡像認知の実験と検討」. 2005 International Symposium on Computational Intelligence in Robotics and Automation. Espoo Finland: CIRA 2005. 493–498. doi:10.1109/CIRA.2005.1554325. ISBN 978-0-7803-9355-4. s2cid 15400848.
Further reading
Aleksander, Igor (2017). "Machine Consciousness". In Schneider, Susan; Velmans, Max (eds.). The Blackwell Companion to Consciousness (2nd ed.). Wiley-Blackwell. pp. 93–105. doi:10.1002/9781119132363.ch7. ISBN 978-0-470-67406-2.
Baars, Bernard; Franklin, Stan (2003). "How conscious experience and working memory interact" (PDF). Trends in Cognitive Sciences. 7 (4): 166–172. doi:10.1016/s1364-6613(03)00056-1. PMID 12691765. S2CID 14185056.
Casti, John L. "The Cambridge Quintet: A Work of Scientific Speculation", Perseus Books Group, 1998
Franklin, S, B J Baars, U Ramamurthy, and Matthew Ventura. 2005. The role of consciousness in memory. Brains, Minds and Media 1: 1–38, pdf.
Haikonen, Pentti (2004), Conscious Machines and Machine Emotions, presented at Workshop on Models for Machine Consciousness, Antwerp, BE, June 2004.
McCarthy, John (1971–1987), Generality in Artificial Intelligence. Stanford University, 1971–1987.
Penrose, Roger, The Emperor's New Mind, 1989.
Sternberg, Eliezer J. (2007) Are You a Machine?: The Brain, the Mind, And What It Means to be Human. Amherst, NY: Prometheus Books.
Suzuki T., Inaba K., Takeno, Junichi (2005), Conscious Robot That Distinguishes Between Self and Others and Implements Imitation Behavior, (Best Paper of IEA/AIE2005), Innovations in Applied Artificial Intelligence, 18th International Conference on Industrial and Engineering Applications of Artificial Intelligence and Expert Systems, pp. 101–110, IEA/AIE 2005, Bari, Italy, June 22–24, 2005.
Takeno, Junichi (2006), The Self-Aware Robot -A Response to Reactions to Discovery News-, HRI Press, August 2006.
Zagal, J.C., Lipson, H. (2009) "Self-Reflection in Evolutionary Robotics", Proceedings of the Genetic and Evolutionary Computation Conference, pp 2179–2188, GECCO 2009.
さらに読む
Aleksander, Igor (2017). 「機械意識」. In Schneider, Susan; Velmans, Max (eds.). The Blackwell Companion to Consciousness (2nd ed.). doi:10.1002/9781119132363.ch7. ISBN 978-0-470-67406-2.
Baars, Bernard; Franklin, Stan (2003). 「意識的経験とワーキングメモリはどのように相互作用するか" (PDF). 認知科学の動向。7 (4): 166–172. doi:10.1016/s1364-6613(03)00056-1. PMID 12691765. s2cid 14185056.
Casti, John L. "The Cambridge Quintet: The Cambridge Quintet: A Work of Scientific Speculation」, Perseus Books Group, 1998.
Franklin, S, B J Baars, U Ramamurthy, and Matthew Ventura. 2005. 記憶における意識の役割。Brains, Minds and Media 1: 1-38, pdf.
Haikonen, Pentti (2004), Conscious Machines and Machine Emotions, presented at Workshop on Models for Machine Consciousness, Antwerp, BE, June 2004.
McCarthy, John (1971-1987), Generality in Artificial Intelligence. Stanford University, 1971-1987.
Penrose, Roger, The Emperor's New Mind, 1989.
Sternberg, Eliezer J. (2007) Are You a Machine?: The Brain, the Mind, And What It Means to be Human. Amherst, NY: Prometheus Books.
鈴木智之・稲葉和彦・竹野純一 (2005), 自己と他者を区別し模倣行動を行う意識的ロボット, (IEA/AIE2005 Best Paper), Innovations in Applied Artificial Intelligence, 18th International Conference on Industrial and Engineering Applications of Artificial Intelligence and Expert Systems, pp.101-110, IEA/AIE 2005, Bari, Italy, June 22-24, 2005.
竹野純一(2006)『自己認識ロボット-発見ニュースへの反応-』HRI出版、2006年8月。
Zagal, J.C., Lipson, H. (2009) 「Self-Reflection in Evolutionary Robotics」, Proceedings of the Genetic and Evolutionary Computation Conference, pp 2179-2188, GECCO 2009.
https://en.wikipedia.org/wiki/Artificial_consciousness

リ ンク

文 献

そ の他の情報


Copyleft, CC, Mitzub'ixi Quq Chi'j, 1996-2099

Mitzub'ixi Quq Chi'j