Existe uma linha de Karman para a consciência da IA? (Interconectado)

Existe uma linha de Karman para a consciência da IA? (Interconectado)


Susan Schneider, filósofo e diretora do Centro do Futuro da Mente, a IA & Society, destacou recentemente o risco de confusão ética: Assumir prematuramente que um chatbot está consciente pode levar a todos os tipos de problemas.

O problema é que os chatbots são ótimos imitadores … e assim estão afirmando a consciência e as pessoas acreditam neles.

Por exemplo, em situações em que precisamos equilibrar o valor moral de uma IA versus o de um humano, poderíamos, em alguns casos, equilibrá -los igualmente, pois decidimos que ambos estão conscientes. Em outros casos, Podemos até sacrificar um humano para salvar dois AIs.

(E) se permitirmos que alguém que construiu a IA diga que seu produto está consciente e acaba prejudicando alguém, eles podem simplesmente levantar as mãos e exclamar: “Ele tomou sua própria mente – não sou responsável”. Aceitar reivindicações de consciência poderia proteger indivíduos e empresas de responsabilidade legal e/ou ética Para o impacto das tecnologias que eles desenvolvem.

– Susan Schneider, Se um chatbot diz que está consciente, você deve acreditar? (Scientific American, maio de 2025)

Esses problemas surgirão se a IA é ou pode estar ou não estar consciente.

Eu me pergunto como pesar a confusão ética, como um risco? Como eu disse ontem, os humanos são bastante egocêntricos, e não vamos tratar AIS, galinhas ou trabalhadores em fábricas de moletom melhor apenas porque somos co-sintiais.

Schneider destacou outro risco em 2017 de que, diante dele, parece mais absurdo, mas pessoalmente eu dou mais peso. E se o silício puder nunca estar consciente? Portanto Quando começamos a usar implantes cerebrais, em que momento os humanos deixam de estar conscientes?

A consciência da máquina poderia afetar a viabilidade das tecnologias de implantação cerebral, como as que serem desenvolvidas pela nova empresa de Elon Musk, Neuralink. Se a IA não puder estar consciente, então as partes do cérebro responsáveis pela consciência não poderiam ser substituídas por batatas fritas sem causar perda de consciência. E, da mesma maneira, uma pessoa não podia fazer upload de seu cérebro para um computador para evitar a morte, porque esse upload não seria um ser consciente.

– Susan Schneider e Edwin Turner, Alguém está em casa? Uma maneira de descobrir se a IA se tornou consciente (Scientific American, julho de 2017)

(Destacei a mesma citação quando falei sobre a senciência da IA e Susan Schneider em 2023).

É uma inclinação escorregadia: digamos que você tenha um chip de computador executando um modelo de idioma grande, e parte dele está descarregada para um grupo de tecido cerebral. Isso é consciente? Instintivamente, diríamos que não. BTW Hybrid Computer Chips/Brain Tissue foram construídos em 2023 e eles podem fazer o processamento de áudio que sustenta o reconhecimento de fala.

Mas, do outro lado das coisas, digamos que você tenha um cérebro humano com um implante menor possível: se você comprar cognição prolongada, poderá chamar sempre de airpods de uma prótese cerebral mínima viável, especialmente se eles puderem sentir e responder às ondas cerebrais. Assim é que “Hybrid cognitivo” consciente? Sim, diríamos instintivamente, é apenas uma pessoa com AirPods.

Quero dizer, esqueça o AirPods, tenho 100% de certeza de que até Noland Armagh movendo um cursor com uma interface cerebral-computador (NPR) está consciente.

Até onde podemos ir? Uma “interface” do computador cerebral é apenas uma interface, como um mouse ou multitoque, mesmo que esteja dentro do crânio. Subjetivamente, não há diferença entre levantar meu braço para pegar uma bola ou “pensar” o cursor até o topo da tela, certo? Ou “conhecendo” a data (pensando) e “sabendo” o tempo (olhando para a barra de status do meu telefone sempre presente).

Se estes não excluem a consciência, o “eu” consciente está localizado em outras partes do cérebro, talvez. Cada vez menor …

Mas … há um limiar em algum lugar, Acabamos de conversar sobre as duas extremidades … então, enquanto carregamos um indivíduo com implantes cerebrais para controlar os computadores … para falar … controlar uma cadeira poderosa … Aumentar a memória … Existe uma linha além da qual eles não estão mais conscientes e estamos concedendo personalidade (ética, legalmente) a alguém/algo que não é mais uma pessoa?

Declaramos algum limite legal, uma linha arbitrária de Karman de ser uma zumbi-p?

Ou o contrário, uma linha de Karman sobre a qual um grande modelo de linguagem é declarado consciente?

(A linha Karman é o limite convencional e imaginário do espaço, 100 km/62 milhas em frente.)

É um absurdo.

No entanto, precisaremos de respostas, para todas as perguntas pragmáticas acima.

Suspeito que acabaremos com uma mistura pragmática, elaborou uma decisão legal precedente em um momento, da mesma maneira que atribuímos personalidade às empresas porque é conveniente e meio Parece certo (No entendimento folclórico, a Amazon tem aproximadamente a mesma quantidade de personalidade que uma formiga), e direitos autorais que são meio propriedade e meio que incentivam o desenvolvimento de idéias e meio que essa coisa de uso justo … é tudo um fudge.

Mas idealmente não Seja um caldo (muito).

O que isso realmente expõe para mim é que vamos precisar de uma maneira mais sofisticada de pensar sobre a consciência …

Em 2022, o co-fundador da OpenAi, Ilya Sutskever, twittou Pode ser que as grandes redes neurais de hoje sejam um pouco conscientes. Isso “ligeiramente” é incrivelmente suportado por carga. O que diabos significa.



Source link

Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *