Qual a importância da consciência e autoconsciência para criar IAs avançadas? A que distância estamos de fazer isso?
Ao criar, por exemplo, uma rede neural (provavelmente) não há consciência nela, mas apenas a matemática por trás, mas precisamos que as IAs se tornem conscientes para resolver tarefas mais complexas no futuro? Além disso, existe realmente alguma maneira de termos certeza se algo está consciente ou se está apenas fingindo? É "fácil" criar um programa de computador que afirme estar consciente, mas isso não significa que seja (por exemplo, Siri).
E se as IAs são baseadas apenas em regras predefinidas sem consciência, podemos chamá-lo de "inteligência"?
philosophy
artificial-consciousness
self-awareness
Mr. Eivind
fonte
fonte
Respostas:
A consciência artificial é um objetivo teórico e de engenharia desafiador. Uma vez que esse grande desafio seja alcançado, a consciência consciente do computador em si mesma provavelmente seria uma adição menor, uma vez que o computador consciente é apenas outro objeto do qual sua consciência pode estar ciente.
Uma criança pode se olhar no espelho e reconhecer que mover as mãos para frente e para trás ou fazer caretas produz mudanças correspondentes no reflexo. Eles se reconhecem. Mais tarde, eles percebem que exercer controle físico sobre seu próprio movimento é muito mais fácil do que exercer controle sobre as mãos ou o rosto de outra pessoa.
Alguns aprendem que o controle limitado dos rostos e operações manuais de outros é possível se certas habilidades sociais e econômicas forem dominadas. Tornam-se empregadores, proprietários, investidores, ativistas, escritores, diretores, figuras públicas ou empreendedores.
Qualquer um que tenha estudado as ciências cognitivas ou experimentado a linha entre tipos de pensamento por ser um conselheiro profissional ou apenas um ouvinte profundo sabe que as linhas em torno da consciência são embaçadas. Considere estes.
Qualquer uma dessas coisas pode ser feita com ou sem certos tipos de consciência, subconsciência, impulso ou hábito.
Subjetivamente, as pessoas relatam sair do carro e não se lembrar de ter voltado para casa. Pode-se ouvir alguém falando, acenar afirmativamente, responder com "Sim, eu entendo" e até repetir o que eles disseram, e, no entanto, parece não ter memória do conteúdo do discurso, se consultado em profundidade. Pode-se ler um parágrafo e chegar ao fim sem compreensão.
Por outro lado, uma pessoa pode lavar-se conscientemente para o trabalho, considerando a importância da higiene e prestando atenção como um cirurgião se preparando para uma operação, notando o cheiro do sabão e até a cloração da água da cidade.
Entre esses extremos, a consciência parcial também é detectável pelo experimento e na experiência pessoal. A consciência definitivamente requer funcionalidade de atenção, que supervisiona provisoriamente a coordenação de outros subsistemas do corpo do cérebro.
Quando um sistema biológico ou artificial atinge a capacidade de coordenar atentamente, os objetos e tarefas para os quais eles podem ser coordenados podem ser trocados. Considere estes.
Agora, considere como essas atividades mentais são semelhantes ou diferentes quando comparamos a atenção autodirigida ou externamente.
Esta é uma ilustração da razão pela qual a parte autoconsciente não é o desafio da IA. É a coordenação atenta (ainda que experimental) que é difícil. Os primeiros microprocessadores, projetados para trabalhar em sistemas de controle em tempo real, incluíam (e ainda incluem) sinalização de exceção que modela de maneira simplista essa tentativa. Por exemplo, ao jogar para ganhar em um jogo, pode-se tentar iniciar o diálogo com o sujeito. A atenção pode mudar quando as duas atividades requerem os mesmos subsistemas.
Também tendemos a considerar essa mudança de consciência da atenção. Se somos a pessoa que está tentando iniciar o diálogo com a pessoa que está jogando para ganhar, podemos dizer: "Alô?" O ponto de interrogação é porque estamos imaginando se o jogador está consciente.
Se alguém deveria diminuir o significado da consciência para os critérios mais básicos, pode-se dizer isso.
Não há nada grosseiramente incorreto nessa declaração. Alguns chamam isso de "inteligência restrita". Essa é uma caracterização levemente imprecisa, pois pode haver um número astronômico de possíveis aplicações de uma rede artificial arbitrariamente profunda que utiliza muitas das técnicas mais eficazes disponíveis em seu design.
O outro problema com a estreiteza como caracterização é a inferência de que existem sistemas inteligentes que não são estreitos. Todo sistema inteligente é estreito em comparação com um sistema mais inteligente. Considere esse experimento mental.
Se essa história se torna realidade em 2018, 3018 ou nunca, o princípio é claro. Georgia é tão capaz de se analisar comparativamente com Hannah quanto Hannah é igualmente capaz. Na história, a Geórgia aplica a definição criada no artigo de Hannah, porque agora ela é capaz de conceber muitas definições de inteligência e escolhe a de Hannah como a mais pertinente no contexto da conversa.
Agora imagine essa alteração na história.
Na resposta da Geórgia, pode haver uma hipótese da qual Hannah possa ou não estar ciente. Para qualquer autômato,a , b , ... , dada a consciência, C , de um cenário s , nós temos uma definição, Φc que pode ser aplicado para avaliar o agregado de todos os aspectos da consciência de qualquer uma das automações, x dando Φc( Cx( s ) ) . A hipótese da Geórgia (aparentemente já comprovada) é assim.
Essa é uma maneira matemática de dizer que sempre pode haver alguém ou alguma coisa mais consciente de um determinado cenário, seja ela, ele ou ela, criada ou não. Mudando os critérios de avaliação da consciência para a inteligência, temos assim.
Só podemos supor que o artigo de Hannah define inteligência geral em relação ao que quer que seja a coisa mais inteligente, que já foi um ser humano bem educado. Assim, a definição de inteligência de Hannah é dinâmica. Georgia aplica a mesma fórmula à nova situação em que ela agora é o padrão contra o qual a inteligência menor é estreita.
Em relação à capacidade de confirmar a consciência, é realmente mais fácil confirmar do que a inteligência. Considere esse experimento mental.
Independentemente da resposta e independentemente de Dylan ser um robô com um processador quântico de IA avançada ou um ser humano, a inteligência de Dylan não pode ser avaliada com confiabilidade. No entanto, não há dúvida de que Dylan estava consciente do jogo.
Nos exemplos das listas no topo desta resposta, há um conjunto específico de requisitos para se qualificar como consciência. Para o caso de Jack e Dylan tocando, algumas coisas DEVEM funcionar em conjunto.
A topologia das conexões é a seguinte e pode haver mais.
Essa é uma das muitas topologias de integração que suportam um dos muitos tipos de coisas às quais a consciência pode se aplicar.
Se olhar no espelho apenas para se preparar para o trabalho ou se olhar profundamente, considerando a pergunta ontológica "Quem sou eu?" cada mistura de consciência, subconsciência, impulso e hábito exige uma topologia específica de características mentais. Cada topologia deve ser coordenada para formar sua personificação específica da consciência.
Para resolver algumas outras questões, é fácil criar uma máquina que se diz consciente de que um gravador de voz digital pode ser programado para fazê-lo em cinco segundos, gravando-se dizendo isso.
Conseguir que um robô leia esta resposta ou alguma outra concepção, considere-a cuidadosamente e, em seguida, construa a sentença a partir do conhecimento do vocabulário e das convenções da fala humana para lhe dizer que sua conclusão é uma tarefa totalmente diferente. O desenvolvimento desse robô pode levar mais 1.000 anos de pesquisa em IA. Talvez dez. Talvez nunca.
A última pergunta, mudada do plural para o singular é: "Se [um dispositivo artificialmente inteligente] está apenas [operando] em regras predefinidas, sem consciência, podemos chamá-lo de inteligente?" A resposta depende necessariamente da definiçãoΦEu acima e, uma vez que nem Φc nem ΦEu tenha uma definição padrão na comunidade da IA, não é possível determinar a entropia cruzada ou a correlação. É indeterminável.
Talvez definições formais deΦc e ΦEu agora pode ser escrito e enviado ao IEEE ou a algum órgão de padrões.
fonte
AIs autoconscientes são importantes porque a consciência é o que nos torna humanos. E os cientistas estão tentando desenvolver IAs mais próximas dos seres humanos e do comportamento humano. O processo de pensamento dos seres humanos é muito complicado e tê-lo desenvolvido nas IAs pode nos substituir realmente por robôs que têm consciência. A única razão pela qual as IAs não estão assumindo um trabalho que envolve a tomada de decisões porque elas não têm consciência.
fonte