Existe algo que é como ser uma IA? (Interconectado)

Existe algo que é como ser uma IA? (Interconectado)


Portanto, se é importante ter uma posição sobre a consciência da IA (ontem) – porque importa se a consciência estiver presente, mas também se a consciência não for possível – então como poderíamos dizer?

Susan Schneider e Edwin Turner (também mencionado ontem) apresentaram a necessidade de um ato, um Teste de consciência da IA, em 2017, em um artigo da Scientific American. Aqui está o artigo de acompanhamento deles de 2018:

Um ato desafiaria uma IA com uma série de interações de linguagem natural cada vez mais exigentes para ver com que rapidez e facilidade ela pode entender e usar conceitos e cenários com base nas experiências internas que associamos à consciência. No nível mais elementar, podemos simplesmente perguntar à máquina se ela se conceber como algo que não fosse seu eu físico. Em um nível mais avançado, podemos ver como ele lida com idéias e cenários, como os mencionados no parágrafo anterior. Em um nível avançado, sua capacidade de argumentar e discutir questões filosóficas como “o difícil problema da consciência” seria avaliado. No nível mais exigente, podemos ver se a máquina inventa e usa um conceito baseado em consciência por conta própria, sem depender de idéias e insumos humanos.

– Schneider e Turner, Teste de consciência sintética: a lei, o teste de chip, The Integrated (2018)

Exemplo de pergunta do livro de Schneider Artificial You: Como é ser você agora?

Embora realmente a ideia de um ato seja um espaço reservado; Não existe, exceto por um esboço.

Por isso, leva uma grande pergunta: ao contrário do teste de Turing, que é totalmente fenomenológico, não distingue entre imitação e realidade (se parece um pato e charriga como um pato, então é inteligente no nível humano), o ato propõe que a consciência seja detectável – ou seja, há algum marcador em que podemos confiar além de apenas perguntar: “Ei, você está consciente do RN?”

Agora eu vou fazer o tacking daquele.

Mas terei uma corrida em uma pergunta menor e subsidiária: É possível usar palavras para sondar a estrutura cognitiva interna real … Mesmo com grandes modelos de linguagem que são imitadores altamente convincentes?

Eu acho: sim.

Duas analogias. Chimps e batatas fritas.


Analogia 1. Chimps

Eu puxei os seguintes experimentos das espécies simbólicas por Terrence Deacon (P84 em diante em minha edição).

O argumento em poucas palavras:

  • Os humanos naturalmente formam símbolos internos abstratos
  • Os chimpanzés não … mas podem ser causados a fazê -lo
  • o que significa que podemos preparar dois chimpanzés idênticos, um com um “símbolo” cognitivo interno e outro sem
  • Podemos fazer uma pergunta que pode diferenciar entre esses dois chimpanzés?
  • Sim, podemos.

Então, como um chimpanzé pode ser induzido para criar um “símbolo” interno e oculto?

Comece treinando -os para usar “palavras”, aqui chamado lexigramas:

Os chimpanzés deste estudo foram ensinados a usar um teclado especial do computador composto de lexigramas – formas abstratas simples (sem ícones aparentes para os referentes pretendidos) em grandes teclas iluminadas em um teclado montado em sua gaiola.

Lexigramas como…

Pares em um relacionamento simples de substância verbal (uma sequência encoberta como significando “dar”, que faz com que um dispensador entregue um pé sólido e “banana” para obter uma banana). Inicialmente, havia apenas 2 lexigramas “verbos” e 4 alimentos ou bebidas lexigramas para escolher, e cada par teve que ser ensinado separadamente.

Conectar um lexigrama ao objeto ou ação é mais complicado do que parece! Muito deve ser ignorado que nós, humanos, nem pensamos:

Pense nisso da perspectiva ingênua de chimpanzé … embora cada chimpanzé possa começar com muitas suposições sobre o que funciona, é improvável que isso esteja na forma de regras sobre classes de combinações permitidas e não permitidas, mas sim sobre o possível número de lexigramas que devem ser pressionados, e assim por suas posições, suas cores ou formas que possam ser associadas a um objeto e assim por diante.

Após treinamento complexo envolvendo milhares de ensaios, Os animais foram capazes de produzir as cordas corretas de lexigramas todas as vezes.

Parece que um símbolo abstrato interno, “comida”, foi criado:

Os pesquisadores introduziram alguns novos itens alimentares e novos lexigramas correspondentes … Sherman e Austin foram capazes de responder corretamente na primeira vez, ou com apenas alguns erros, em vez de fazer centenas de ensaios como antes.

Em teoria, o símbolo aparece porque é mnemonicamente mais eficiente para usar a representação abstrata.

MAS! Eles estão genuinamente manipulando esse símbolo de “comida” como uma entidade mental? Ou apenas aprendeu a responder da mesma maneira para cada lexigrama nessa categoria?

Então agora contrastamos com um chimpanzé que aprendeu o agrupamento de alimentos por Rote … semelhante a como um grande modelo de linguagem é treinado…

Lana é um chimpanzé de aprendizagem mecânica que haviam sido treinados com o mesmo sistema de lexigrama, mas não da mesma maneira sistemática.

Em um exercício de agrupamento, todos os chimpanzés tiveram desempenho igualmente:

Todos os três chimpanzés foram testados pela primeira vez em sua capacidade de aprender a classificar itens alimentares juntos em uma panela e itens de ferramentas juntos em outro (e depois), foram apresentados com novos alimentos ou ferramentas para classificar e foram capazes de generalizar a partir de seu comportamento anterior para classificar esses novos itens adequadamente também.

Até agora, os chimpanzés são indistinguíveis.

Agora, os experimentadores introduziram um lexigrama para defender o hipotético símbolo interno de “alimentos” (e também um lexigrama para um símbolo de “ferramenta”).

Todos eles conseguiram isso, Tomando muitas centenas de ensaios para fazer a transferência.

Então agora temos um símbolo externalizado (um lexigrama) que supostamente mapeia um símbolo abstrato interno.

Agora vamos tentar fazer Algo com esse símbolo externalizado e veja se o isomorfismo se decompõe.

E de fato isso quebra. Enquanto os macacos que usam símbolos foram capazes de estender sua abstração, o macaco da aprendizagem mecânica não era:

Novos itens de alimentação e ferramentas novos foram introduzidas. Sherman e Austin acharam que isso era uma adição trivial e facilmente adivinhou sem nenhum aprendizado adicional que o lexigrama era apropriado. (Lana não pôde.) Embora, na superfície, essa tarefa se assemelha à tarefa de classificação, esses resultados conflitantes demonstram que há uma diferença crítica que prejudicou a estratégia de aprendizagem mecânica usada por Lana e favoreceu a recodificação simbólica usada por Sherman e Austin.

Eu sei que, ao ler, isso parece uma diferença sutil e obscura.

No entanto, é profundo!

Isso significa que em teoria Somos capazes de fazer uma pergunta que distingue a compreensão da imitação, Nesse caso, a presença ou ausência do conceito abstrato interno de “alimento”.

E se estivéssemos interrogando o conceito abstrato de “eu”?


Analogia 2. CHIPS

Considere Spectre, Meltdown e Rowhammer – hackets que exploram a realidade física e o layout do chip de computador (como discutido anteriormente, 2018).

Você realiza algum cálculo que envolve procurar algo na memória e o resultado é diferente se a localização física dessa memória estiver aqui versus lá. Não muito diferente, mas mensurável.

O ponto é que fazer perguntas – ou de maneira mais geral, interagir – se o teste de Turing ou como algum ato hipotético, tem algum poder revelador e determinante da verdade. A mera interação pode investigar o espaço interno!


Meu argumento disso é que é (a) útil e (b) significativo começar a fazer perguntas sobre a consciência. A presença de consciência não é uma não pergunta como “o que está fora do universo”.

Infelizmente, além desse ponto, tudo se desfez …

Veja, o assunto do experimento de pensamento de hoje é meu gato. Ela está dormindo ao meu lado no sofá.

Ela está consciente? Bem, talvez não de uma maneira consciente: ela não pode me dizer: “Estou consciente de estar consciente”.

Posso contar de qualquer maneira? Existe um marcador de consciência que eu possuo e ela não? Eu poderia dizer a diferença, usando algum teste, por mais barroco que se sinta ao lado do meu gato e sentado ao lado de uma simulação de zumbi-p do meu gato? Honestamente, não gosto da ideia de um teste de consciência de gatos. Coloque isso, parece terrivelmente redutivo.

Por outro lado, eu sou convencida de que é senciente. Consciente ou não há algo por dentro. Ela percebe; ela sente. Mas agora estamos no atoleiro de definições.

Onde, neste experimento pensado, posso encontrar um terreno sólido? Bem, como Thomas Nagal poderia ter colocado, Há algo que é como ser um gato.

Existe algo que é como ser uma IA?

Talvez não hoje, mas um dia, se houver – e se queremos uma resposta – acho que é totalmente válido para usar o julgamento das pessoas informadas após um período de interação com a IA (ou o gato). Isso é não Apenas um teste de Turing, um jogo de imitação. Vivendo ao lado e então, ”Então, o que você considera” é um método de determinação da verdade.

E talvez esse seja todo o ato de que precisamos.



Source link

Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *