A inteligência humana é o objetivo inteligente? [fechadas]

9

Parece sempre ter sido o foco na literatura para aproximar componentes da mente humana, assumindo que ela é a mais avançada. Se outros animais entrassem no cenário da IA, era apenas para estudar primatas de maneiras que não são práticas para estudar seres humanos ou para simular a atividade neural de uma lesma, porque seu sistema nervoso é simples.

Talvez haja uma razão mais avançada para considerar o uso de formas de vida inferiores como modelo para a inteligência artificial desejada. Eu tenho lido o que EO Wilson e outros tinham a dizer sobre as habilidades colaborativas de outras espécies. Existem qualidades notáveis ​​em organismos tão simples e adaptáveis ​​quanto as bactérias. Certamente, as formigas são a espécie modelo de colaboração. As abelhas são indiscutivelmente as mais experientes em construção, levando a sustentabilidade do estilo de vida e as inter-relações com outras espécies a uma forma de arte muito acima da capacidade da inteligência humana.

Usando analogias esportivas para caracterizar as opções, a inteligência humana é mais como esportes de gladiadores antes da iluminação ou pelo menos hóquei no gelo, onde ferir o oponente é considerado a estratégia inteligente. O que as abelhas fazem é mais como escalar montanhas, construindo com precisão e cuidado.

O que as formigas fazem é muito parecido com as corridas de revezamento, onde há pouco interesse na equipe adversária porque cada colônia, assim como cada pista na pista, é independente e as pistas são marcadas. As formigas marcam de maneira semelhante seu território, e as reivindicações territoriais são respeitadas como na melhor das estadistas geopolíticas da Vestfália. Não há ciúmes mesquinhos nem competições apenas por uma questão de primazia orgulhosa. Com as formigas, assim como com o treinador inteligente de atletismo, o objetivo é que cada perna da corrida tenha um bom desempenho em relação ao melhor desempenho anterior do revezador.

As bactérias são os corredores de longa distância. Eles trocam DNA entre si e ignoram todas as regras da dor e do medo. Eles se comportam de uma maneira sustentável que não toma nada como garantido e usa tudo para sobreviver. E eles sobreviveram por quase toda a duração da existência da Terra. Eles provavelmente estarão presentes por cem bilhões de anos depois que a humanidade se for, se o sol não se tornar uma supernova primeiro.

Por que queremos programar computadores para se comportarem infinitamente como concorrentes? As pessoas baixam programas de xadrez inteligentes para que possam perder repetidamente? Não, eles baixam o sistema operacional Android porque ele colabora e não custa nada. Não podemos encontrar jogos de soma diferente de zero onde os cenários ganha-ganha são possíveis?

Já não temos agentes hipócritas, fofoqueiros e hiper-críticos suficientes em torno de dentro de nossa própria espécie? Por que não enviar a IA na direção da inteligência colaborativa, como formigas? Não seria melhor ter novos amigos artificiais que gostariam de compartilhar o fardo de nossas tarefas diárias?

Não queremos que nossos robôs do futuro construam como uma abelha constrói, em hexágonos? Ou queremos que nossos robôs sigam nosso exemplo, desperdiçando 70% dos materiais na construção vertical por causa de uma insistência irracional em ângulos de noventa graus, como somente os humanos fariam?

Douglas Daseeco
fonte
3
Você ganhou uma visão muito otimista da concorrência entre colônias sociais de insetos. A afirmação "não há interesse na equipe adversária porque cada colônia, assim como cada pista na pista é independente", simplesmente não é verdadeira. As colônias de formigas competirão com e combaterão outros membros de sua própria espécie, e definitivamente contra outras espécies. Embora eu (e acho que muitas pessoas) concordem em valorizar outras formas de habilidade / inteligência tão bem adaptadas quanto os seres humanos, ainda há uma concorrência feroz entre espécies, interespécies e freqüentemente inter-relações em todas as espécies.
Neil Slater
11
@NeilSlater muito correto ... Organismos só quero seu DNA para propagar e formigas e abelhas (trabalhador) participação de 50% de DNA com os outros trabalhadores ... Essa é a sua principal motivação
DuttaA
Como eu disse, eles compartilham genes apenas em sua colônia e matam formigas de outras colônias, mesmo que sejam da mesma espécie ... Os humanos não compartilham genes, a menos que seja um membro da família em que você veja ajuda altruísta (em geral) ... Mas desde temos um cérebro tão grande (cérebro capaz) que acumulamos experiências que mudam nosso comportamento genético e podemos nos tornar hostis à família ... Quero responder à sua pergunta, mas ela será muito grande, então farei quando chegar time
DuttaA 11/08
Bactérias / formigas / abelhas, não sabem que o que estão fazendo é inteligente, não podem refletir sobre o que estão fazendo e apresentar métodos mais eficientes. Você pode fazer esses seres simples alcançarem objetivos diferentes dos que eles já alcançam? Não.
Ankur
11
@Ankur No entanto, você pode estudar os princípios de como seu comportamento bem-sucedido funciona e aplicá-lo artificialmente a um novo problema. Isso é algo que é feito, e a pergunta do OP apresenta alguns pontos interessantes, como se isso é suficiente para cobrir todos os casos de uso desejados para a IA e se seria uma abordagem mais segura / melhor. Penso "não" e "não" para essas perguntas, mas seria necessário algum esforço para reunir uma resposta.
Neil Slater

Respostas:

6

Eu tenho uma visão bastante obscura dos humanos como espécie e propus um Teste de Turing reverso pelo qual os humanos são avaliados quanto à humanidade suficiente ( ). (Brincadeirinha, mas não totalmente;)

Os seres humanos claramente não são as espécies mais bem-sucedidas da Terra se você for por biomassa:

insira a descrição da imagem aqui

Concordo plenamente que formas de vida menos complexas são muito eficazes e valem a pena imitar problemas específicos (consulte os algoritmos de otimização de colônias de formigas como um exemplo).

Mas como é um mundo quando administrado por formigas? Esse é um mundo em que queremos viver?

Não é apenas brutal a competição na natureza, mas também a brutalidade é o mecanismo pelo qual as espécies se tornam otimizadas (evolução).

Os seres humanos são falhos, mas também alcançamos grandes triunfos, e o que pode nos separar dos animais é que nossos sucessos também podem se enquadrar na categoria de "triunfos do espírito". Onde existem forças de egoísmo e ganância levando a sociedade em uma direção, também temos a contra-força, empurrando em direções alternativas.

Alguns jogos simplesmente são de soma zero e não há como evitar isso, mas isso não significa que eles tenham que ser "tudo ou nada" (recomendamos o sudoku partidário em vez do xadrez por esse motivo).

Vale a pena considerar um conceito conhecido como Eficiência de Pareto . A especulação financeira, na qual grande parte da economia mundial agora parece baseada, depende do princípio do "maior tolo" , em que um agente se beneficia depende inteiramente da perda de outro agente. O pior de nós parece estar focado nesses mecanismos, com exclusão de todos os outros, porque não requer compromisso real, apenas análises mais fortes e / ou melhores informações e liquidez.

O que o melhor de nós parece buscar é a melhoria de Pareto, pela qual os agentes podem melhorar, sem exigir que outros agentes piorem.

O ponto aqui é que foi necessária a inteligência humana para identificar e definir essas condições. (A natureza pode se importar menos.) A otimização de Pareto tem sido controversa por causa de sua origem, mas isso foi antes do setor de tecnologia, que é muito bom em criar novas oportunidades, e parece-me que também pode ser usado para equilibrar a distribuição de recursos para tente maximizar a estabilidade social. (ou seja, às vezes pode ser mais ideal ficar um pouco pior.)

Minha visão sombria de nossa espécie não vem de ser ineficiente ou, muitas vezes, tola, mas da idéia de que, nesta fase da história, ainda estamos agindo como se tivéssemos caído das árvores, regressando ao tribalismo e ao conflito partidário. de cooperação.

Ao contrário da sua tese:

  • Acredito que não é apenas importante buscar a inteligência algorítmica no nível humano, mas devemos "humanizar" esses algoritmos na maior extensão possível.

A superinteligência e a AGI ainda estão no horizonte e são totalmente teóricas, mas, se forem alcançadas e esses algoritmos forem de mecanismo puro, desprovidos dos valores que nós humanos, no nosso melhor, estimamos, poderemos acabar sendo apenas mais uma vítima do processo evolutivo. , ultrapassado por novas formas de vida artificial, não temos chance de competir.

Em certo sentido, o impulso para o ser humano pode ser considerado uma celebração da humanidade, mais sofisticada, mas não totalmente diferente em espírito do que o David de Michelangelo.

DukeZhou
fonte
@DouglasDaseeco Na verdade, eu gosto muito da sua pergunta porque eu concordo 100% com você em relação à utilidade / benefício geral das funções de "baixo nível". Parte do meu próprio projeto envolve aferir o desempenho de heurísticas generalizadas versus algoritmos de aprendizado em determinados conjuntos de problemas em que o tempo / recursos são severamente restritos e, em particular, onde a topologia do problema atual não é conhecida de antemão. Quando as decisões econômicas sólidas, mas menos otimizadas alcançadas mais rapidamente produzem mais benefícios agregados do que as decisões ideais que exigem mais recursos e tempo?
DukeZhou
@DouglasDaseeco Na frente da "mitologia da IA", alguns dos principais autores, como Stephenson e Gibson, se interessaram mais recentemente apenas pelo tipo de inteligência limitada que você está descrevendo. (Stephenson tem um fundo de engenharia, e nunca estava interessado em AGI, mas Gibson fez seu nome escrito sobre ela em seus primeiros livros.)
DukeZhou
@DouglasDaseeco Agreed. Também vale a pena notar que o consenso geral de nossa espécie parece que o genocídio é anátema, e começamos a pensar na importância da biodiversidade, com algum esforço para conservar espécies ameaçadas. Meu pensamento é que, se algum dia cairmos de nossa posição no topo da cadeia alimentar, seria uma coisa muito boa se, o que quer que nos substituísse, compartilhasse esses objetivos b / c, talvez sejamos os que precisam de proteção! (I encontrar Philip K. Dick mais saliente porque sua hipótese é que a empatia é uma função natural da inteligência suficientemente avançada.)
DukeZhou
3

Embora a natureza humana tenha muitas falhas, ela foi definitivamente a mais bem-sucedida, desde que existisse, como apontado por @DukeZhou. O sucesso pode ser totalmente aludido ao fato de termos um cérebro muito bom e capaz. Comparado a outras espécies, somos fisicamente (proeza física) muito mais incapazes. Portanto, se estamos tentando criar uma IA, não devemos modelar nosso próprio cérebro, o melhor sistema inteligente existente?

A única coisa que você perdeu é que os humanos são muito mais pacíficos do que todos os outros animais. Os animais estão em constante guerra pela sobrevivência, nós, humanos, conseguimos superar tudo isso e vivemos nos tempos mais pacíficos do milênio inteiro. Podem surgir conflitos, isso talvez atribuído aos nossos genes. Nossos genes são de nossos ancestrais animais, onde visualizam muitas coisas como ameaças (incluindo animais da mesma espécie animais do sexo oposto, o processo de pensamento oposto também pode ser percebido como uma ameaça). Por isso, está fadado a penetrar em nossa mentalidade. Podemos mudar isso? Possivelmente não (talvez isso vá contra as leis da natureza e da seleção natural).

Vamos ver 2 casos em que não houve competição:

  • Jarawas - Essas pessoas vivem isoladas em uma ilha (mesmo agora). Como resultado, eles ainda vivem um estilo de vida de caçadores-coletores, o que pode ser atribuído ao fato de não sentirem a necessidade de mudar, pois não viam ameaças à sua vida ou posição. Como somos sábios, não invadimos seus territórios sabendo que eles não durariam contra a tecnologia moderna (também porque eles não representam ameaça para nós).
  • Nativos americanos : Enquanto a Europa e a Ásia estavam em guerra, essas pessoas viviam em uma ilha (apenas com lutas internas). Como resultado, suas tecnologias quase não evoluíram e foram quase destruídas.

Formigas e abelhas sendo cooperativas é um nome impróprio para mim. É inteiramente devido ao fato de que todas as formigas / abelhas em uma colônia em particular são irmãos (caso contrário, elas brutalmente matam outras colônias). Eles também mantêm limites territoriais enquanto houver recursos abundantes dentro dele; caso contrário, haverá uma guerra (não posso citar nenhuma fonte, mas ouvi muitas formigas invadindo os territórios de outras formigas).

As bactérias não têm dor ou medo, mas dizer que elas existem há muito tempo por causa da cooperação não me parece totalmente correto. Eles provavelmente têm um mecanismo de sobrevivência eficiente.

O ponto de tudo isso é que não existe uma imagem rósea do reino animal, como @Neil Slater disse.

Chegando a como devemos criar o comportamento de uma IA? As IAs não têm genes no momento, portanto, elas não têm nenhuma obrigação com sua descendência e não terão ciúmes, isso significa que elas não têm os elementos básicos de um organismo biológico (e, portanto, não têm nenhuma obrigação / interesse). Mas acredito que a concorrência é boa entre a IA; caso contrário, como eles aprenderão novas estratégias? Portanto, a competição sem ciúmes é o melhor cenário para os agentes de IA (pode não ser o caso no reino animal). se não houver competição, o conhecimento entre as IA provavelmente estagnará.

Eu não sou especialista em Teoria dos Jogos, mas se 2 ou mais agentes competem entre si, eles devem seguir a Teoria dos Jogos para maximizar seus resultados (provavelmente declarando a Eficiência de Pareto como @DukeZhou apontou, ou do ponto de vista da física a energia não é criada nem destruída , distribuído apenas de sistema para sistema). Mas há um problema aqui, existem várias estratégias viáveis, dependendo inteiramente do ambiente . Este foi um tópico pesquisado pelos cientistas da computação Axelrod e Hamilton, onde eles testaram várias estratégias. Uma versão simplificada de seus experimentos pode ser encontrada em The Selfish Genelivro capítulo 12. Seus experimentos (simulados em um computador) aparentemente dão alguma evidência de que caras legais (caras que favorecem incondicionalmente) nem sempre perdem para caras egoístas. Isso precisa ser mais pesquisado se queremos realmente criar uma colônia de IA.

TL; DR : É injusto comparar a IA com o reino animal, pois eles não possuem a unidade básica de sobrevivência (o gene). Os seres humanos são de longe os mais inteligentes e mais pacíficos de todo o reino animal. Competição sem ciúme é provavelmente o melhor curso de ação em qualquer colônia ou espécie.

DuttaA
fonte
11
Na teoria dos jogos, o equilíbrio de Nash é um ponto estável e a eficiência de Pareto é uma medida da utilidade total. O dilema do prisioneiro é um bom exemplo em que os dois não são maximizados da mesma forma; o ponto lógico mínimo de ambos os prisioneiros desertam, mas a utilidade total máxima acontece quando os dois prisioneiros cooperam. Infelizmente, muitos sistemas competitivos têm essa diferença entre os ideais de Pareto e Nash.
Neil Slater
@NeilSlater axelrod investigado dilema dos prisioneiros num sentido mais amplo ... aparentemente ele tinha algumas conclusões interessantes
DuttaA
0

Algumas características da inteligência humana certamente fazem parte do objetivo principal de longo prazo da IA. A maioria dessas características também são obviamente propriedades de outras espécies. Uma questão realmente crucial é como um computador poderia perceber não apenas de maneira humana, mas perceber? Os símbolos emitidos pelos sensores digitais não indicam o que foi detectado. Tudo o que o computador recebe são os símbolos; então, como um computador poderia perceber alguma coisa?

Outra questão realmente crucial é que os seres humanos e provavelmente a maioria dos outros animais, em certa medida, têm uma inteligência geral - podem aplicar o que foi aprendido no passado a novas situações. Para os humanos, existe uma versão do problema de conhecimento geral que se aplica à linguagem; portanto, isso é uma questão puramente humana. Mas muitos animais têm claramente algum tipo de conhecimento geral. A AI ainda não produziu uma máquina com conhecimento geral. Os efeitos desastrosos dos "casos extremos" para o software de IA de veículo autônomo são uma prova muito preocupante. Como obter uma inteligência geral também é um problema absolutamente fundamental.

Então, para resumir minha resposta: No momento, uma inteligência humana não é o objetivo inteligente. A IA tem problemas muito mais fundamentais. O objetivo inteligente no momento é entender os princípios da percepção e como incorporá-los em um computador (supondo que isso seja possível), e entender os princípios da inteligência geral e como incorporá-los.

Ou seja, descobrir como os animais conhecem seu ambiente e como eles reagem adequadamente a situações novas com base em experiências passadas.

Roddus
fonte
A visão muito comum do atropelamento demonstra claramente que muitos animais sofrem efeitos desastrosos de "casos extremos". A declaração "Os símbolos emitidos pelos sensores digitais não indicam o que foi detectado". é interessante e traz alguns argumentos centrais que são pró ou anti-IA fortes. Um neurobiologista pode igualmente dizer "os sinais emitidos pelos bastonetes e cones, e os neurônios motores emitem que controlam os músculos não indicam o que foi sentido". É principalmente a nossa experiência consciente pessoal que dá uma pista de que algo está acontecendo. Nós não entendemos o que é isso.
Neil Slater #
@ Neil Slater Exatamente, também não sabemos os princípios de como um cérebro orgânico obtém estruturas semânticas. E há anotações nos pulsos neurais que indicam o que foi sentido. Mas cérebros orgânicos fazer chegar uma semântica. Você pensaria que esse fato inspiraria os gurus a descobrir o que há de errado com o quarto chinês de Searle e sua premissa de que os símbolos são semanticamente vazios. Claro que são. Mas o mesmo acontece com os pulsos neurais.
Roddus 5/09