Novas invenções significativas na computação desde 1980

561

Essa questão surgiu de comentários sobre diferentes tipos de progresso na computação nos últimos 50 anos.

Alguns outros participantes me pediram para fazer uma pergunta a todo o fórum.

A idéia básica aqui não é bash o estado atual das coisas, mas tentar entender algo sobre o progresso de apresentar novas idéias e princípios fundamentais.

Afirmo que precisamos de idéias realmente novas na maioria das áreas da computação e gostaria de saber quais são as importantes e poderosas que foram feitas recentemente. Se não conseguimos encontrá-los, devemos perguntar "Por quê?" e "O que devemos fazer?"

Alan Kay
fonte
77
Jeff Atwood confirmou que o usuário "Alan Kay" é O "Alan Kay". Você sabe, o cara que trabalhava para essa empresa máquina copiadora ... ;-) en.wikipedia.org/wiki/Alan_Kay
splattne
1
Assisti a este vídeo: video.google.com/videoplay?docid=-533537336174204822 - Um vídeo histórico (1979) sobre o desenvolvimento do Dynabook, Crianças e computadores e muito mais apresentado por Alan Kay. Coisas incríveis feitos antes de 1970 - especialmente a parte "Sketchpad" em 1962.
splattne
2
dependendo da sua própria definição, a resposta pode ser de "nenhum" até uma enumeração de todas as tecnologias possíveis. E todas essas respostas seriam ou correta ou incorreta, dependendo da definição de "uma nova ideia" os usos leitor / observador ...
Emile Vrijdags
3
Depois de olhar para todas as respostas aqui: Bom sofrimento! Não fizemos nada nos últimos 30 anos?
21413 Jeremy Powell
2
@ Will: Curiosamente, acredito que aprendi recentemente de uma resposta interessante a essa pergunta: algoritmos de clustering rápidos . O DBSCAN é o estado da arte em grande parte disso (O (n log n) no número de pontos no conjunto de dados) e data de 1996. Infelizmente, com a pergunta encerrada, não vou demorar para ler as muitas respostas para descobrir se alguém me venceu.
dmckee --- gatinho ex-moderador

Respostas:

311

A própria Internet é anterior a 1980, mas a World Wide Web ("hipertexto distribuído por mecanismos simples"), como proposto e implementado por Tim Berners-Lee, começou em 1989/90.

Enquanto a idéia de hipertexto já existia antes ( o Xanadu de Nelson tentara implementar um esquema distribuído), a WWW era uma nova abordagem para a implementação de um sistema de hipertexto distribuído. Berners-Lee combinou um protocolo cliente-servidor simples, linguagem de marcação e esquema de endereçamento de uma maneira poderosa e fácil de implementar.

Eu acho que a maioria das inovações são criadas para combinar novamente as peças existentes de uma maneira original. Cada uma das peças da WWW já existia de alguma forma antes, mas a combinação era óbvia apenas em retrospectiva.

E eu tenho certeza que você está usando agora.

splattne
fonte
26
+1 para o mais óbvio, mas também o mais facilmente esquecido porque todos nós é um dado adquirido :)
PolyThinker
20
Não estou usando a World Wide Web no momento. Estou usando uma série de tubos conhecidos como internets, obtidos via google.
Robert S.
13
@ bruceatk: O hipertexto é uma implementação de texto. O texto foi inventado em 3500 aC.
Portman
1
@bruceatk: Eu não acredito que ele tenha escrito sobre a WWW até 1989. w3.org/People/Berners-Lee
Portman
2
@splattne: procure E acho que se tornou
u0b34a0f6ae
235

Free Software Foundation (Fundada em 1985)

Mesmo que você não seja um defensor sincero de sua filosofia, as idéias que eles têm promovido, de software livre, de código aberto tiveram uma influência incrível na indústria de software e no conteúdo em geral (por exemplo, Wikipedia).

Oddthinking
fonte
9
Concordo que a FSF tem sido muito influente, mas há uma tendência entre seus advogados de defender o "pensamento de grupo". Muitos FSF não podem aceitar que o Apple OSX e o MS Windows sejam muito melhores do que qualquer sistema operacional de código aberto para o usuário médio. Ninguém quer admitir isso.
21711 Russell RussellH
32
Todo o objetivo da FSF é promover software que possa ser usado, modificado e redistribuído gratuitamente por todos. OSX e Windows não são "melhores" para isso em nenhuma definição.
Adam Lassek
5
@ RussellH: você está confundindo os softwares "código-fonte aberto" e "livre (como no Freedom)". Seu comentário, de fato, ilustra precisamente por que a distinção é importante. De qualquer forma, o Firefox é melhor que o Internet Explorer e o Safari, e é mais importante para os usuários do que Windows x MacOS x Linux.
NiXar 02/02/09
8
Janie, você não precisa ser um defensor para ver que os princípios que eles estão promovendo tiveram um efeito importante na indústria. Não tenho interesse em ser arrastado para uma discussão sobre se a FSF é comunista ou se você deve adotar alguns princípios comunistas.
1102 Oddthinking
9
Invenção legal, não invenção de computação.
Charles Stewart
150

Eu acho que é justo dizer que em 1980, se você estava usando um computador, estava sendo pago por isso ou era um nerd ... então o que mudou?

  • Impressoras e editoração eletrônica no nível do consumidor . Significava que você não precisava de uma impressora para produzir material impresso de alto volume e alta qualidade. Isso foi grande - é claro, hoje em dia nós tomamos isso como garantido, e principalmente nem nos importamos com a parte da impressão, porque todo mundo está on-line de qualquer maneira.

  • Cor . A sério. As telas coloridas fizeram uma enorme diferença na percepção de jogos e aplicativos dos não-geeks. De repente, os jogos pareciam menos trabalho duro e mais como assistir TV, o que abriu as portas para Sega, Nintendo, Atari et al.

  • Compactação de mídia (MP3s e arquivos de vídeo). E um monte de coisas - como TiVO e iPods - que não pensamos mais em computadores porque são tão onipresentes e fáceis de usar. Mas eles são.

Acho que o fio comum aqui é algo que antes era impossível (criar documentos impressos; reproduzir imagens coloridas com precisão; enviar mensagens ao redor do mundo em tempo real; distribuir material de áudio e vídeo), e era caro por causa do equipamento e da logística envolvido e agora está no nível do consumidor. Então - o que as grandes empresas estão fazendo agora que antes eram impossíveis, mas podem ser legais se pudermos descobrir como fazê-lo pequeno e barato?

Qualquer coisa que ainda envolva transporte físico é interessante de se ver. A videoconferência ainda não substituiu as reuniões reais - mas com a tecnologia certa, ela ainda pode. Algumas viagens de lazer poderiam ser eliminadas por um ambiente imersivo de sensorial total - o cinema em casa é um exemplo trivial; outro é o "campo de golfe virtual" em um prédio de escritórios no Soho, onde você joga 18 buracos de golfe real em um campo simulado.

Para mim, porém, a próxima grande coisa será a fabricação. Fazendo coisas. Colheres, guitarras, cadeiras, roupas, carros, azulejos e outras coisas. Coisas que ainda dependem de uma infraestrutura de fabricação e distribuição. Não preciso mais ir a uma loja para comprar um filme ou um álbum - quanto tempo até não precisar ir à loja comprar roupas e utensílios de cozinha?

Certamente, há desenvolvimentos interessantes em andamento com monitores OLED, GPS e contêineres de banda larga móvel e IoC e scripts e "a nuvem" - mas ainda são apenas novas maneiras de colocar fotos em uma tela. Posso imprimir minhas próprias fotos e escrever minhas próprias páginas da web, mas quero poder fabricar uma cesta de linho que caiba exatamente no canto ao lado da minha mesa e um suporte de montagem para prender minha unidade FX da guitarra na minha mesa e algo assim por prender meu celular no guidão da bicicleta.

Não está relacionado à programação? Não ... mas em 1980, nem a produção de som. Ou distribuição de vídeo. Ou enviando mensagens para seus parentes na Zâmbia. Pense grande, pessoal ... :)

Dylan Beattie
fonte
1
Acho que a compactação de mídia não é um conceito novo (remonta ao trabalho de Shannon nos anos 50), tornou-se viável com hardware aprimorado (rápido o suficiente, capaz de reproduzir a mídia).
Kornel
Eu teria que concordar que a fabricação é algo que eu acho que pode ser uma das próximas grandes coisas. Quando as "impressoras" de objetos se tornarem mainstream (impressoras que podem replicar itens físicos simples e duráveis), acho que estaremos lá.
21713 Andy Webb
Também seria ótimo verificar itens existentes para que substituições possam ser feitas. Em muitas ocasiões, tive que comprar um parafuso ou peça estranha para substituir um que rompeu em casa ou na minha bicicleta. Com esse sistema, eu podia digitalizar a peça antiga, repará-la no software e criar a substituição.
Andy Webb
44
A editoração eletrônica e a impressão de alta qualidade foram inventadas na Xerox PARC nos anos 70, alguns dos Altos da época também tinham telas coloridas de alta qualidade. A Internet antecedeu 1980. compressão de mídia antecedeu 1980. A questão é sobre o que novas tecnologias fundamentais foram inventadas desde 1980
Alan Kay
3
Você é um visionário. Não deixe o homem te derrubar. Impressoras 'Printing' é a próxima grande revolução.
Waylon Flinn
137

Gerenciamento de pacotes e controle de revisão distribuído.

Esses padrões na maneira como o software é desenvolvido e distribuído são bastante recentes e ainda estão apenas começando a causar impacto.

Ian Murdock chamou o gerenciamento de pacotes de "o maior avanço que o Linux trouxe para o setor". Bem, ele faria, mas ele tem razão. A maneira como o software é instalado mudou significativamente desde 1980, mas a maioria dos usuários de computadores ainda não experimentou essa alteração.

Joel e Jeff têm falado sobre controle de revisão (ou controle de versão ou controle de origem) com Eric Sink no Podcast # 36 . Parece que a maioria dos desenvolvedores ainda não alcançou os sistemas centralizados , e o DVCS é amplamente visto como misterioso e desnecessário.

Da transcrição do Podcast 36 :

0:06:37

Atwood: ... Se você assumir - e isso é uma grande suposição - que a maioria dos desenvolvedores meio que dominou o controle fundamental da fonte - o que eu acho que não é verdade, francamente ...

Spolsky: Não. A maioria deles, mesmo que possuam, é o check-in, o check-out que eles entendem, mas se ramificando e se fundindo - que confunde o mundo deles.

merriam
fonte
1
Se alguém deve contar como uma nova invenção significativa, é genial.
hasen
8
hasen j: git é um DCMS fantástico, no entanto, houve vários outros implementados antes que o git - git, seja uma nova implementação significativa de uma idéia.
Arafangion
+1 para Gerenciamento de Pacotes. Ainda é uma das principais coisas que o Linux / BSD tem que dominar a cabeça de todos, embora o restante esteja chegando lá ( bem devagar).
new123456
Até mesmo os sistemas de controle de revisão baseados em servidor são em grande parte desenvolvimentos pós-1980, passando de apenas ter o estado atual até a história do estado também ... essa é uma mudança colossal e sutil.
Donal Fellows
Controle de revisão distribuído é o nome errado. Ninguém se importa se o seu sistema não está centralizado. O importante é se você acompanha conjuntos de alterações ou versões. Mas na maioria das vezes, eles se reúnem (GIT, Mercurial), o que confunde todo mundo. Joel Spolsky disse a si mesmo em um post no blog :With distributed version control, the distributed part is actually not the most interesting part.
Benjamin Crouzier
123

BitTorrent . Isso muda completamente o que antes parecia uma regra obviamente imutável - o tempo que leva para uma única pessoa baixar um arquivo pela Internet cresce proporcionalmente ao número de pessoas que o baixam. Ele também aborda as falhas das soluções ponto a ponto anteriores, particularmente em torno do 'sanguessuga', de uma maneira que é orgânica para a própria solução.

O BitTorrent transforma elegantemente o que normalmente é uma desvantagem - muitos usuários tentando baixar um único arquivo simultaneamente - em uma vantagem, distribuindo o arquivo geograficamente como parte natural do processo de download. Sua estratégia para otimizar o uso da largura de banda entre dois pares desencoraja o uso de sanguessugas como efeito colateral - é do interesse de todos os participantes impor a limitação.

É uma daquelas idéias que, uma vez que alguém a inventa, parece simples, se não óbvia.

Kief
fonte
É verdade que, embora o BitTorrent possa ser um pouco diferente / aprimorado, a nova invenção significativa realmente deve ser a distribuição P2P, em vez de qualquer implementação específica como o BitTorrent.
Ilari Kajaste 14/10/09
10
Discordo. O P2P não é nada novo, é mais antigo que a USENET. Os aplicativos "P2P" pré-bitTorrent para a área de trabalho (Kazaa e similares) são simplesmente reembalados do conceito cliente-servidor, adicionando um diretório central dinâmico de servidores. Cada cliente "ponto" se conecta a um único outro servidor "ponto" para transferir um arquivo. O fato de um único nó fazer as duas coisas é antigo (pelo menos para sistemas anteriores ao Windows). O protocolo bitTorrent é (AFAIK) uma maneira completamente nova de transferir arquivos, que utiliza vários sistemas para transferir um arquivo entre si de uma maneira verdadeiramente distribuída.
Kief
7
@JL: Em teoria, o download direto é mais rápido, mas não na prática. Com uma semeadora e uma leacher, não deve haver nenhuma diferença. Assim que você adicionar outra leacher, essa leacher poderá começar a receber peças de quem tiver uma conexão mais rápida (mesmo se o cliente com a conexão mais rápida não tiver o arquivo completo). Com um download direto, para aproveitar a conexão mais rápida, você primeiro precisa esperar o cliente concluir o download antes de iniciar.
Pedro Pedro Cecco
1
Acho que a melhor pergunta é quanta largura de banda você economiza hospedando um torrent e propagando-o com o que teria sido uma caixa de download direto. Somente empresas como a Blizzard sabem disso agora, e eu não as vi falar números. Sem uma 'super semente', os torrents dependerão da semente dos usuários, o que simplesmente não funciona com conexões assíncronas e com pessoas que não desejam deixar o computador ligado e a montante saturado.
semi
6
@JL: torrents são mais lentos que o download direto? Minha experiência "prática" diz diferente; tente baixar o Eclipse nos dois sentidos.
Dean J
120

A inferência do tipo Damas-Milner (freqüentemente chamada de inferência do tipo Hindley-Milner) foi publicada em 1983 e tem sido a base de todo sistema sofisticado de tipo estático desde então. Era uma idéia genuinamente nova em linguagens de programação (admitida com base em idéias publicadas na década de 1970, mas que não foi tornada prática até depois de 1980). Em termos de importância, eu coloco isso no Self e nas técnicas usadas para implementar o Self; em termos de influência, não tem pares. (O resto do mundo OO ainda está fazendo variações no Smalltalk ou no Simula.)

Variações na inferência de tipo ainda estão ocorrendo; a variação que eu mais destacaria é o mecanismo de classe de tipo de Wadler e Blott para resolver sobrecargas, que mais tarde foi descoberto como oferecendo mecanismos muito poderosos para a programação no nível de tipo. O fim desta história ainda está sendo escrito.

Norman Ramsey
fonte
3
Os sistemas do tipo estático +1 são um grande passo no desenvolvimento de software. Não concordo mais com esta resposta.
21413 Jeremy Powell
104

Aqui está um plug para reduzir o mapa do Google , não apenas por si só, mas como um proxy para a conquista do Google de executar serviços rápidos e confiáveis ​​em cima de fazendas de máquinas de commodities não confiáveis. Definitivamente, uma invenção importante e totalmente diferente das abordagens de mainframe de ferro grande para o cálculo de pesos pesados ​​que dominaram o cenário em 1980.

Norman Ramsey
fonte
10
map-reduzir não é uma invenção do Google.
Akappa
20
Sou um programador funcional. Minha primeira língua era APL. Seu ponto, exatamente?
Norman Ramsey
15
Então (mapcar fl) e (reduzir fl) no Lisp são executados automaticamente em números arbitrários de máquinas comuns, lidando com toda intercomunicação, falhas e reinicializações?
Jared Updike
16
A redução de mapa do Google não tem muito a ver com redução de mapa funcional.
aehlke
91

Identificação , a maneira como as informações são categorizadas. Sim, as pequenas caixas de texto em cada pergunta.

É incrível que demorou cerca de 30 anos para inventar a marcação. Usamos listas e índices; usamos coisas otimizadas para livros impressos.

No entanto, 30 anos é muito mais curto do que o tempo que as pessoas precisavam para perceber que os livros impressos podem estar em formato menor. As pessoas podem manter os livros nas mãos.

Eu acho que o conceito de marcação está subestimado entre os caras do núcleo do CS. Toda a pesquisa está focada no processamento de linguagem natural (abordagem de cima para baixo). Mas a marcação é o primeiro idioma no qual computadores e pessoas podem entender bem. É uma abordagem de baixo para cima que faz com que os computadores usem linguagens naturais.

Greg Dan
fonte
1
Concordo - isso se correlaciona com a minha afirmação de que a única coisa nova em que consigo pensar é a marcação sintática para consultar entre muitos domínios - mas você afirmou melhor.
dkretz
40
Confira Engelbart ca 1962-72
Alan Kay
Para mim, a marcação é muito parecida com os primeiros mecanismos de pesquisa que usaram a tag meta = keywords (que também é pós-anos 80, estou apenas argumentando que a marcação não vale a pena mencionar).
Kornel
1
Embora a marcação na computação seja uma abordagem relativamente nova, a marcação também é um conceito herdado dos livros; nos livros, isso se chama indexação.
Domchi
6
as bibliotecas usam "tags" desde ... bem, eu não sei, mas há muito tempo. Pense nos cartões de livros (desculpe, não sei como eles são chamados em inglês) com a tag "livros sobre xxx".
Nico 25/05
80

Acho que estamos encarando isso da maneira errada e tirando conclusões erradas. Se eu entendi direito, o ciclo continua:

Idéia -> primeira implementação -> adoção minoritária -> massa crítica -> produto de commodities

Desde a primeira idéia até a mercadoria, você costuma ter séculos, supondo que a idéia chegue a esse estágio. Da Vinci pode ter desenhado algum tipo de helicóptero em 1493, mas demorou cerca de 400 anos para obter uma máquina real capaz de se levantar do chão.

Desde a primeira descrição de William Bourne de um submarino em 1580 até a primeira implementação em 1800, você tem 220 anos e os submarinos atuais ainda estão em um estágio inicial: quase nada sabemos sobre viagens subaquáticas (com 2/3 do planeta submarino, pense em o potencial imobiliário;).

E não há como dizer que não havia idéias anteriores, muito anteriores, das quais nunca ouvimos falar. Com base em algumas lendas, parece que Alexandre, o Grande, usou algum tipo de sino de mergulho em 332 aC (que é a idéia básica de um submarino: um dispositivo para transportar pessoas e suprimento de ar abaixo do mar). Contando isso, estamos analisando 2000 anos desde a ideia (mesmo com um protótipo básico) até o produto.

O que estou dizendo é que hoje procurar implementações, muito menos produtos, que nem sequer eram idéias antes de 1980, é ... aposto que o algoritmo de "ordenação rápida" foi usado por algum caixeiro sem nome na China antiga. E daí?

Havia computadores em rede há 40 anos, com certeza, mas isso não se comparava à Internet de hoje. A idéia / tecnologia básica estava lá, mas independentemente de você não poder jogar um jogo de Warcraft online.

Afirmo que precisamos de idéias realmente novas na maioria das áreas da computação e gostaria de saber quais são as importantes e poderosas que foram feitas recentemente. Se não conseguimos encontrá-los, devemos perguntar "Por quê?" e "O que devemos fazer?"

Historicamente, nunca conseguimos "encontrá-los" tão perto da ideia, tão rápido. Eu acho que o ciclo está ficando mais rápido, mas a computação ainda é muito jovem.

Atualmente, estou tentando descobrir como fazer um holograma (do tipo Guerra nas Estrelas, sem nenhum suporte físico). Eu acho que sei como fazê-lo funcionar. Eu nem sequer reuni as ferramentas, materiais, financiamento e, mesmo assim, se eu tivesse sucesso em algum grau, a idéia real já teria várias décadas, no mínimo, e as implementações / tecnologias relacionadas foram usadas por tanto tempo .

Assim que você começa a listar produtos reais, pode ter certeza de que os conceitos e as primeiras implementações existiam há algum tempo. Não importa.

Você poderia argumentar com alguma razão que nada é novo, sempre, ou que tudo é novo, sempre. Essa é a filosofia e os dois pontos de vista podem ser defendidos.

Do ponto de vista prático, a verdade está algures no meio. A verdade não é um conceito binário, lógico booleano que se dane.

Os chineses podem ter inventado a impressora há algum tempo, mas há apenas 10 anos a maioria das pessoas pode imprimir fotos coloridas decentes em casa por um preço razoável.

A invenção não está em lugar algum e em qualquer lugar, dependendo de seus critérios e quadro de referência.

Sylverdrag
fonte
1
+1. Dê uma olhada, por exemplo, no iPad;) Veja stackoverflow.com/questions/432922/…
VonC
4
Se ao menos houvesse um favorito. tag resposta ... Se ao menos houvesse uma opção para dar 2 upvotes ...
tshepang
Ótima resposta. Talvez devêssemos perguntar então, que novas idéias houve nos últimos 30 anos (não novos produtos / invenções). E já que é muito difícil dizer se eles serão "significativos" ou revolucionários antes de serem construídos ... talvez possamos especular e depois decidir onde gastar mais energia.
MJ #
3
Houve inúmeras novas idéias surpreendentes nos últimos 30 anos, mas não houve necessariamente tempo para ver quais são importantes. Escolha qualquer campo da computação e percorra a pesquisa lançada no ano passado, e você não encontrará novas idéias, desde pequenas melhorias a revisões completas. No entanto, os anos 80 e anteriores parecem tão revolucionários e compactados porque essas idéias agora se concretizaram e são onipresentes, e por isso parecem significativas. Teremos essa mesma discussão em 30 anos, quando as idéias a partir de agora se resumirem em invenções maravilhosas.
Perrako
@ Mark: O que se qualifica como uma "nova idéia"? Toda idéia, parte do código, organismo biológico tem um contexto que, em uma visão, não tornaria nada verdadeiramente novo. O problema com a pergunta do Prof. Kay é que a filosofia por trás do incêndio que ele e seus colegas da Xerox Parc (e Engelbart 10 anos antes dele) acenderam sob a indústria de tecnologia / computador está queimando como um fogo descontrolado e mudou o mundo, contexto. Verdadeiramente novas idéias lá fora não têm impacto tão nenhum de nós já ouviu falar deles - sistemas operacionais escritos com provas de sua correção e núcleo de segurança, não-ARM, arquiteturas não-x86, etc.
Jared Updike
68

Algoritmo do Page Rank do Google . Embora pudesse ser visto apenas como um refinamento dos mecanismos de pesquisa de rastreamento na Web, eu gostaria de salientar que eles também foram desenvolvidos após 1980.

Bill the Lizard
fonte
"Apenas um refinamento" costuma ser um oxímoro. Nesse caso, o refinamento é a tecnologia. A internet era um lugar muito mais assustador antes que o Google trouxesse o algoritmo de classificação de página (e entregou os resultados rapidamente e sem confusão de páginas, e todas as outras dragas que usamos para sofrer e usar outros mecanismos de pesquisa no passado).
21415 David Berger
19
Eu não acho que você saiba o que é um oxímoro.
Jason
1
Você se lembra da altavista e daquela pequena empresa desconhecida: yahoo?
Esteban Küber 24/09/09
@voyager: Hotbot e Lycos também não eram ruins.
Dean J
2
@martin é um oxímoro não oximoro . contradição está na definição: ninjawords.com/oxymoron
Jason
66

DNS, 1983, e avanços dependentes, como resolução de host de email por meio de registros MX em vez de caminhos de bang. * estremecer *

Zeroconf trabalhando em cima do DNS, 2000. Conecto minha impressora à rede e meu laptop a vê. Inicio um servidor web na rede e meu navegador o vê. (Supondo que eles transmitam sua disponibilidade.)

NTP (1985) baseado no algoritmo de Marzullo (1984). Tempo preciso em redes instáveis.

A roda de rolagem do mouse, 1995. O uso de mouse sem ele é tão primitivo. E não, não é algo que a equipe de Engelbart pensou e esqueceu de mencionar. Pelo menos não quando perguntei a alguém que estava na equipe na época. (Foi em algum evento da Engelbart em 1998, aproximadamente. Eu consegui lidar com um dos primeiros ratos.)

Unicode, 1987, e seus avanços dependentes para diferentes tipos de codificação, normalização, texto bidirecional etc.

Sim, é bastante comum as pessoas usarem todos esses 5 todos os dias.

Essas são "idéias realmente novas?" Afinal, havia ratos, codificações de caracteres, cronometragem da rede. Diga-me como posso distinguir entre "novo" e "realmente novo" e eu responderei esse para você. Minha intuição diz que estas são novas o suficiente.

Em domínios menores, há avanços facilmente mais recentes. Em bioinformática, por exemplo, Smith-Waterman (1981) e mais especialmente BLAST (1990) tornam o campo possível de maneira eficaz. Mas parece que você está pedindo idéias que são muito amplas em todo o campo da computação, e os frutos mais baixos são escolhidos primeiro. Assim é sempre com um novo campo.

Andrew Dalke
fonte
63

E as câmeras digitais?

Segundo a Wikipedia, a primeira câmera digital verdadeira apareceu em 1988, com as câmeras digitais de mercado de massa se tornando acessíveis no final dos anos 90.

Domchi
fonte
Mas a idéia, a invenção e as patentes estavam lá no início dos anos 70 (veja a seção sobre "Desenvolvimento Antecipado")
saschabeaumont
10
Câmera digital? É de se perguntar, a julgar pelos votos positivos, o que as pessoas entendem hoje pelo termo "computação".
MaD70
1
Imagens é a base da computação moderna para o consumidor. Sem uma webcam, uma câmera compacta ou cara (para jornais), os consumidores modernos não precisariam de computadores.
Marius
14
@ MaD70: Eu acho que você não gosta muito de fotografia, não é? Só para citar alguns: reconhecimento automático de rosto, foco automático, "modo panorâmico", balanço de branco automático ... ele definitivamente cai na computação.
Nico 25/05
6
Desculpe, o primeiro protótipo de câmera digital foi fabricado pela Kodak em 1975, aparentemente. pluggedin.kodak.com/post/?ID=687843
Mark Ransom
50

Linguagens de sombreamento modernas e a prevalência de GPUs modernas.

A GPU também é um supercomputador paralelo de baixo custo com ferramentas como CUDA e OpenCL para código paralelo de alto nível . Obrigado a todos os jogadores que estão por aí reduzindo os preços dessas maravilhas de hardware cada vez mais impressionantes. Nos próximos cinco anos, espero que todos os novos computadores vendidos (e também os iPhones) tenham a capacidade de executar códigos paralelos em massa como uma suposição básica, como as cores de 24 bits ou o modo protegido de 32 bits.

Jared Updike
fonte
Tente. Você não vai gostar. Os sistemas multinúcleo são muito mais rápidos para a maioria dos problemas do mundo real. YMMV. Bom para gráficos, e não muito mais.
Xcramps 26/08/09
Há uma razão para eles serem chamados de GPUs e não de PPUs ... (unidades de processamento paralelo). A maioria das pessoas não tem paciência e / ou habilidades para escrever um bom código para elas. Embora exista uma quantidade crescente de projetos de pesquisa que estão explorando o uso do GPUS para fins não gráficos.
RCIX 25/09/09
3
Eu tentei. Eu gostei. Posso executar todo o meu código do Matlab na GPU, sem modificações no código-fonte, exceto por algumas alterações tipográficas que você pode fazer com uma pesquisa e no local. Google "computação em GPU Matlab".
Contango 07/07
3
Eu concordo com o OP. O pipeline programável, embora algo que agora podemos dar como certo, mudou completamente o mundo dos gráficos, e parece que ele pode continuar mudando outras partes do mundo da programação. @xcramps: Acho que estou perdendo alguma coisa; A última vez que verifiquei, as GPUs eram sistemas com vários núcleos. Apenas com muito mais núcleos. Mais ou menos como ... supercomputadores. Mas eu acho que aqueles que não são realmente sendo usado para qualquer coisa no mundo real ...
Perrako
Dois anos mais tarde (não 5 como eu disse) e dispositivos móveis transporte com OpenCL estão no horizonte: macrumors.com/2011/01/14/...
Jared Updike
43

A compilação JIT foi inventada no final dos anos 80.

Jasper Bekkers
fonte
Bem, todo o trabalho sobre a implementação da linguagem Self (que foi completamente compilada por JIT) foi incrível, e sua utilidade pode ser vista hoje em Javascript no Google V8. E isso é do final dos anos 80 e início dos anos 90.
Blaisorblade 11/01/09
7
Vi essa ideia pela primeira vez no último capítulo do livro de John Allen, Anatomy of Lisp, publicado nos anos 70. Ele referiu-se a uma tese de doutorado dos anos 70 como autor.
Darius Bacon
Talvez devêssemos refiná-lo com "perfil baseado compilação JIT adaptativa", como o Auto JIT ou Suns Java Hotspot
kohlerm
34
Uma das teses de doutoramento no início de 1970 que tiveram JIT foi Jim Mitchell na CMU - mais tarde ele foi para PARC
Alan Kay
2
Nori, KV; Ammann, U .; Jensen; Nageli, H. (1975). Notas de implementação do compilador Pascal P. Zurique: Eidgen. Tech. Hochschule. (Obrigado wikipedia)
Arafangion
42

Para abordar as duas perguntas sobre "Por que a morte de novas idéias" e "o que fazer sobre isso"?

Suspeito que grande parte da falta de progresso se deva ao influxo maciço de capital e riqueza arraigada no setor. Parece contra-intuitivo, mas acho que se tornou uma sabedoria convencional que qualquer nova idéia tenha uma chance; se não conseguir na primeira tentativa, não poderá voltar. É comprado por alguém com interesses arraigados, ou apenas FALHAS, e a energia acaba. Alguns exemplos são computadores tablet e software de escritório integrado. O Newton e vários outros tinham um potencial real, mas acabaram (por atrito competitivo e mau julgamento) desperdiçando seus direitos de nascimento, matando categorias inteiras. (Eu gostava especialmente do Framework de Ashton Tate; mas ainda estou preso ao Word e Excel).

O que fazer? A primeira coisa que vem à mente é Wm. O conselho de Shakespeare: "Vamos matar todos os advogados". Mas agora eles estão muito bem armados, receio. Na verdade, acho que a melhor alternativa é encontrar algum tipo de iniciativa de código aberto. Eles parecem manter a acessibilidade e a melhoria incremental melhores do que as alternativas. Mas a indústria ficou grande o suficiente para que algum tipo de mecanismo colaborativo orgânico seja necessário para obter tração.

Eu também acho que há uma dinâmica que diz que os interesses entrincheirados (especialmente plataformas) exigem uma quantidade substancial de mudanças - rotatividade - para justificar fluxos contínuos de receita; e isso absorve muita energia criativa que poderia ter sido gasta de maneiras melhores. Veja quanto tempo gastamos navegando na água com a mais nova iteração da Microsoft ou Sun ou Linux ou Firefox, fazendo alterações nos sistemas que, na maioria das vezes, já funcionam bem. Não é porque eles são maus, é apenas incorporado à indústria. Não existe equilíbrio estável; todos os mecanismos de feedback são positivos, favorecendo mudanças sobre estabilidade. Você já viu um recurso retirado ou uma alteração retirada?

A outra pista que foi discutida sobre o SO é a Síndrome de Skunkworks (ref: Geoffrey Moore): inovação real em grandes organizações quase sempre aparece (mais de 90%) em projetos não autorizados que surgem espontaneamente, alimentados exclusivamente por iniciativas individuais ou de pequenos grupos ( e mais frequentemente do que não se opõem às hierarquias formais de gerenciamento). Então: Pergunta Autoridade, Buck the System.

le dorfier
fonte
Eu amei o Framework, e você ainda pode comprá-lo, mas é caro.
Norman Ramsey
7
É sempre mais fácil ter novas idéias em uma nova área de conhecimento; portanto, um grande número de idéias importantes surgiu nas décadas de 1950 e 1960. Nós apenas podemos fazer a maioria deles muito melhor agora.
David Thornley
6
Penso que esta resposta e os comentários estão muito bem colocados.
Alan Kay
5
@ David: "muito melhor agora". E mais barato. E menor. O que permite novas maneiras de fazer outras coisas melhor. Por exemplo, 10 músicas -> 1.000 músicas -> 1.000 álbuns no meu bolso, com certeza é uma questão de grau, mas isso muda tudo, mesmo que alguém antes de 1980 tenha mostrado que isso poderia ser feito, em teoria, em um mainframe gigante. As peças podem estar lá, mas algumas invenções, como o iPod, são mais do que a soma das partes.
Jared Updike
@ Alan Kay, @le dorfier: parece-me que um contra-exemplo parcial com essa atitude arraigada é a decisão de Donald Knuth de aumentar assintoticamente o número da versão do TeX em direção a pi. Mas ele é uma instituição, não uma corporação. Estou chocado com o mozilla e o google race pela versão número 100 de seus navegadores, enquanto a padronização inteligente e criativa, bem como a inovação no acesso e transformação de dados, estão atrasadas.
ogerard
36

Uma coisa que me surpreende é a humilde planilha. Pessoas que não são programadores criam soluções maravilhosas para problemas do mundo real com uma grade simples de fórmula. A replicação de seus esforços no aplicativo de desktop geralmente leva de 10 a 100 vezes mais tempo do que a gravação da planilha e o aplicativo resultante costuma ser mais difícil de usar e cheio de bugs!

Acredito que a chave para o sucesso da planilha é a análise automática de dependências. Se o usuário da planilha fosse forçado a usar o padrão de observador, ele não teria chance de acertar.

Portanto, o grande avanço é a análise automática de dependências. Agora, por que nenhuma plataforma moderna (Java, .Net, Web Services) incorporou isso ao núcleo do sistema? Especialmente em um dia e idade de escalonamento por meio da paralelização - um gráfico de dependências leva à recomputação paralela trivialmente.

Edit: Dang - apenas verificado. O VisiCalc foi lançado em 1979 - vamos fingir que é uma invenção pós-1980.

Edit2: Parece que a planilha já foi anotada por Alan de qualquer maneira - se a pergunta que o comprou neste fórum está correta!

Daniel Paull
fonte
5
Eu tinha pensado nessa resposta, mas o Visicalc foi lançado apenas um pouquinho antes do prazo de 1980. ( en.wikipedia.org/wiki/VisiCalc )
Oddthinking
mas isso revela um ponto interessante: apenas apresentar uma maneira simples de exibir e manipular dados criou uma classe incrivelmente útil de ferramentas. existe alguma outra ideia 'capacitadora' como esta? precisamos de um? acho que sim.
Javier
Veja também: stackoverflow.com/questions/357813/…
splattne 11/01
Eu concordo plenamente. A análise automática de dependências pode ser e deve fazer parte das linguagens de programação modernas.
Jesse Pimenta
1
@hasen j: Excel é uma planilha A propósito, existem plataformas modernas que mantêm dependências entre cálculos - por exemplo, Haskel (Excel e linguagens funcionais têm muito em comum - por exemplo, funções puras e avaliação lenta). Excel é apenas muito mais intuitivo do que Haskel :)
ajuc
36

Programas:

  • Virtualização e emulação

  • Transferências de dados P2P

  • projetos voltados para a comunidade como Wikipedia, SETI @ home ...

  • mecanismos de rastreamento e pesquisa na Web, ou seja, indexação de informações espalhadas por todo o mundo

Hardware:

  • o PC modular

  • E-paper

mjy
fonte
6
A virtualização foi implementada no VM / CMS em 1972. O que você quer dizer com "o PC modular"?
11119 Hudson
Penso que, com o "PC modular", ele quer dizer que qualquer pessoa pode comprar componentes quase intercambiáveis ​​e construir seu próprio computador.
Psycho_Penguin
14
O P2P foi inventado na Xerox PARC nos anos 70 - os Altos eram todos P2P e os recursos de arquivos, impressoras e "roteadores" eram todos P2P Altos
Alan Kay
1
Eu vi "E-paper" e pensei, o que? como isso me afeta dia a dia. Fico feliz que exista, mas os e-Readers não são tecnologias muito importantes em uma base ampla, em comparação com o celular ou o iPod.
Jared Updike
3
Eu gostaria de salientar que todo mundo cerca de 40-50 anos atrás ainda estava fazendo matemática no papel principal e dizendo o mesmo sobre computadores ...
RCIX
36

A redescoberta da mônada por pesquisadores de programação funcional. A mônada foi fundamental para permitir que uma linguagem pura e preguiçosa (Haskell) se tornasse uma ferramenta prática; também influenciou o design das bibliotecas combinadoras (combinadores de analisadores monádicos chegaram até ao Python).

"Um relato teórico de categorias de módulos de programas" (1989) de Moggi é geralmente creditado por trazer mônadas à vista para uma computação eficaz; O trabalho de Wadler (por exemplo, "Programação funcional imperativa" (1993)) apresentou mônadas como ferramenta prática.

solidsnack
fonte
36

Shrinkwrap software

Antes de 1980, o software era principalmente especialmente escrito. Se você administrava uma empresa e queria informatizar, normalmente adquiria um computador, um compilador e um banco de dados, além de escrever suas próprias coisas. Normalmente, o software comercial foi escrito para se adaptar às práticas comerciais. Isso não quer dizer que não havia software enlatado (trabalhei com o SPSS antes de 1980), mas não era a norma, e o que vi tendia a ser software de infraestrutura e pesquisa.

Atualmente, você pode ir a uma loja de computadores e encontrar na prateleira tudo o que precisa para administrar uma pequena empresa. Ele não foi projetado para se encaixar perfeitamente nas práticas que você costumava ter, mas funcionará bem quando você aprender a trabalhar mais ou menos de acordo com o fluxo de trabalho. As grandes empresas estão muito mais próximas do que costumavam ser, com coisas como SAP e PeopleSoft.

Não é um problema, mas depois de 1980 houve uma mudança muito definitiva de um software personalizado caro para um software de prateleira de baixo custo, e a flexibilidade mudou de software para procedimentos de negócios.

Isso também afetou a economia do software. Soluções de software personalizadas podem ser rentáveis, mas não escalam. Você pode cobrar apenas um cliente e não pode vender a mesma coisa para vários clientes. Com o software shrinkwrap, você pode vender muitas e muitas coisas iguais, amortizando os custos de desenvolvimento em uma base de vendas muito grande. (Você precisa fornecer suporte, mas isso aumenta. Apenas considere um custo marginal de venda do software.)

Teoricamente, onde há grandes vencedores de uma mudança, haverá perdedores. Até agora, os negócios de software continuaram se expandindo, de modo que, à medida que as áreas se tornam comoditizadas, outras áreas se abrem. Provavelmente, isso chegará ao fim em algum momento, e desenvolvedores moderadamente talentosos se encontrarão em uma crise real, incapazes de trabalhar para os meninos grandes e fora do mercado. (Isso provavelmente ocorre para outros campos; suspeito que a demanda por contadores seja muito menor do que seria sem o QuickBooks e similares.)

David Thornley
fonte
O Turbo Pascal & C a US $ 100 em um sistema MS-DOS provocou um preço de US $ 100 em um compliador C para um C / PM de outros.
CW Holeman II
Desculpe, tenho certeza de que a Microsoft estava vendendo software para embalagem retrátil antes de 1980. Não que eles fossem os únicos.
Mark Ransom
34

Fora das inovações de hardware, costumo descobrir que há pouco ou nada de novo sob o sol. A maioria das idéias realmente grandes remonta a pessoas como von Neumann e Alan Turing.

Atualmente, muitas coisas rotuladas como 'tecnologia' são apenas um programa ou biblioteca que alguém escreveu, ou uma reforma de uma ideia antiga com uma nova metáfora, acrônimo ou nome de marca.

frankodwyer
fonte
3
Você não pode ver a floresta, pois todas as árvores estão no caminho ... Os blocos de construção são praticamente os mesmos, mas o resultado mudou / evoluiu.
Johan
8
... Essa é a definição de tecnologia;) "a aplicação prática do conhecimento ..."
steamer25
1
Concordo que é hora da próxima grande novidade. Estou cansado de toda a embalagem de coisas esquecidas do passado como algo novo. Como Javascript = AJAX.
James
32

Worms de computador foram pesquisados ​​no início dos anos oitenta do século passado no Centro de Pesquisa Xerox Palo Alto.

Dos programas "Worm" de John Shoch e Jon Hupp - experiência inicial com uma computação distribuída "(Communications of the ACM, março de 1982, volume 25, número 25, pp.172-180, março de 1982):

Em O Cavaleiro da Onda de Choque , J. Brunner desenvolveu a noção de um onipotente programa de "tênia" que se solta através de uma rede de computadores - uma idéia que pode parecer bastante perturbadora, mas que também está além das nossas capacidades atuais. O modelo básico, no entanto, continua sendo muito provocativo: um programa ou uma computação que pode passar de máquina para máquina, aproveitando os recursos conforme necessário e replicando-se quando necessário.

De maneira semelhante, uma vez descrevemos um modelo computacional baseado no clássico filme de ficção científica, The Blob: um programa que começou a funcionar em uma máquina, mas à medida que seu apetite por ciclos de computação aumentava, ele podia alcançar, encontrar máquinas não utilizadas e crescer para abranger esses recursos. No meio da noite, esse programa poderia mobilizar centenas de máquinas em um prédio; de manhã, quando os usuários recuperavam suas máquinas, o "blob" teria que recuar de maneira ordenada, reunindo os resultados intermediários de sua computação. Escondido em uma ou duas máquinas durante o dia, o programa poderia surgir novamente mais tarde, à medida que os recursos se tornassem disponíveis, expandindo novamente a computação. (Essa afinidade pela exploração noturna levou um pesquisador a descrevê-los como "programas de vampiros".)

Citando Alan Kay: "A melhor maneira de prever o futuro é inventá-lo".

splattne
fonte
@Bobby: De acordo com os princípios básicos de segurança de computadores, 2006, Lehtinen, Russell & Gangemi, este trabalho começou "por volta de 1980". Portanto, se você desconsiderar os precursores de ficção científica, isso conta.
Charles Stewart
31

Melhores interfaces de usuário.

As interfaces de usuário de hoje ainda são péssimas. E não quero dizer de maneiras pequenas, mas de maneiras grandes e fundamentais. Não posso deixar de notar que mesmo os melhores programas ainda têm interfaces extremamente complexas ou que exigem muito pensamento abstrato de outras maneiras, e que simplesmente não se aproximam da facilidade das ferramentas convencionais que não são de software.

Concedido, isso se deve ao fato de o software permitir fazer muito mais do que as ferramentas convencionais. Isso não é motivo para aceitar o status quo. Além disso, a maioria dos softwares simplesmente não é bem feita.

Em geral, as aplicações ainda carecem de um certo sentimento de que “apenas funciona” é muito orientado pelo que pode ser feito, e não pelo que deve ser feito. Um ponto que foi levantado repetidamente, e que ainda não foi resolvido, é o ponto de economizar. Os aplicativos falham, destruindo horas de trabalho. Eu tenho o hábito de pressionar Ctrl + S a cada poucos segundos (é claro, isso não funciona mais em aplicativos da web). Por que eu tenho que fazer isso? É estupidamente estúpido. Essa é claramente uma tarefa para automação. Obviamente, o aplicativo também precisa salvar um diff para todas as modificações que eu fizer (basicamente uma lista infinita de desfazer) caso eu cometa um erro.

Resolver esse problema não é realmente difícil. Seria difícil implementá-lo em todos os aplicativos, pois não há uma boa API para fazer isso. As ferramentas e bibliotecas de programação precisam melhorar significativamente antes de permitir uma implementação sem esforço de tais recursos em todas as plataformas e programas, para todos os formatos de arquivo com armazenamento de backup arbitrário e sem a interação necessária do usuário. Mas é um passo necessário antes de finalmente começarmos a escrever aplicativos “bons” em vez de apenas aplicativos adequados.

Acredito que a Apple atualmente se aproxima do "apenas funciona", sentindo-se melhor em alguns aspectos. Tomemos, por exemplo, a versão mais recente do iPhoto, que possui um reconhecimento facial que agrupa fotos automaticamente pelas pessoas que aparecem nelas. Essa é uma tarefa clássica que o usuário não deseja executar manualmente e não entende por que o computador não faz isso automaticamente. E até o iPhoto ainda está muito longe de uma boa interface do usuário, pois esse recurso ainda requer confirmação final do usuário (para cada foto!), Pois o mecanismo de reconhecimento de rosto não é perfeito.

Konrad Rudolph
fonte
3
O Picasa do Google tem isso há um tempo. De fato, o picasa possui muitos outros recursos que estão lentamente se arrastando para o iPhoto.
akshaykarthik
30

Sistemas HTM ( Memória Temporal Hiearchical ).

Uma nova abordagem para a Inteligência Artificial, iniciada por Jeff Hawkins através do livro " On Intelligence ".

Agora ativo como uma empresa chamada Numenta, onde essas idéias são postas à prova através do desenvolvimento de IA "verdadeira", com um convite à comunidade para participar usando o sistema por meio de SDKs.

É mais sobre construir a inteligência das máquinas desde o início, em vez de tentar imitar o raciocínio humano.

sharkin
fonte
11
Quando eles fazem algo interessante, eu vou ser o primeiro e mais alto líder do aplauso
Alan Kay
@ AlanKay Bem, parece que o HTM já é usado em produtos reais. Por exemplo: vitamind inc permite que você reconheça objetos ou pessoas em imagens de CFTV. Vitamindinc é totalmente alimentado por HTM. No presente trabalho , você pode ver que HTM realmente bate a abordagem SVM para o reconhecimento de escrita à mão em conjuntos de dados, como USPS. O fato de ser ao mesmo tempo biologicamente inspirado e de alto valor prático me surpreende. Eu acho que você pode começar a aplaudir agora.
Benjamin Crouzier
26

O uso da interação da Física no Computador Humano para fornecer uma metáfora alternativa e compreensível. Isso combinado com gestos e hápticos provavelmente resultará em uma substituição da atual metáfora da GUI comum inventada nos anos 70 e em uso comum desde meados do final dos anos 80.

O poder da computação não estava presente em 1980 para tornar isso possível. Acredito que os Jogos provavelmente lideraram o caminho até aqui. Um exemplo pode ser visto facilmente na interação da rolagem de lista no iPod Touch / iPhone. O mecanismo de interação se baseia na intuição de como o momento e o atrito funcionam no mundo real para fornecer uma maneira simples de rolar uma lista de itens, e a usabilidade se baseia no gesto físico que causa o deslocamento.

Steve Steiner
fonte
O exemplo mais antigo em que consigo pensar foi no Alternate Reality Kit de Randy Smith, construído em Smalltalk-80 no PARC em 86 ou 87. Você pode implementar novos objetos com uma metáfora física. Cada objeto tinha localização, massa, momento e um menu pop-up para interagir com ele por meio de sua interface de mensagens.
PanCrit
25

Acredito que Teste de Unidade, TDD e Integração Contínua são invenções significativas após 1980.

krosenvold
fonte
2
Testar primeiro foi um método muito antigo que foi ressuscitado, acredito.
Johnno Nolan
Isso é uma coisa de engenharia de software, e não uma "computação" coisa
SquareCog
7
Eu concordo com John, por exemplo, Brooks descreve uma abordagem de teste em The Mythical Man-Month (1975).
Fabian Steeg
28
A integração contínua foi realizada pela primeira vez com seriedade no BBN Lisp 1.85 no final dos anos 60, que se tornou o Interlisp no PARC. Smalltalk no PARC nos anos 70 também era um sistema de integração contínua.
Alan Kay
3
O TDD só se tornou geralmente útil quando os computadores eram rápidos o suficiente para executar pequenos testes tão rapidamente que você está disposto a executá-los repetidamente.
Jay Bazuzi
25

Celulares.

Enquanto a primeira patente de "telefone celular" foi em 1908, e eles estavam cozinhando por muito tempo (0G em 1945, 1G lançado no Japão em 1979), os modernos celulares digitais 2G não apareceram até 1991. O SMS não existia. até 1993, e o acesso à Internet apareceu em 1999.

Domchi
fonte
4
O Japão em 1979, antes de 1980. Estamos à procura de novas invenções - pense em laboratórios de pesquisa, universidades, demonstrações práticas de pedidos de patentes ... tudo o que antecederá a disponibilidade do mercado de massa em vários anos.
saschabeaumont
1
A diferença entre 1G e 2G é quase tão grande quanto a diferença entre computador analógico e digital. Eu acho que 2G (1991) merece o status de "nova" invenção.
Domchi 15/01/09
E depende de tecnologias de economia de energia e boas baterias.
Johan
23

Comecei a programar em 2 de janeiro de 1980. Tentei pensar em novas invenções significativas ao longo da minha carreira. Eu luto para pensar em alguma. A maior parte do que considero significativo foi realmente inventada antes de 1980, mas depois não foi amplamente adotada ou melhorada até depois.

  1. Interface gráfica do usuário.
  2. Processamento rápido.
  3. Memória grande (paguei US $ 200,00 por 16 mil em 1980).
  4. Tamanhos pequenos - telefones celulares, PCs de bolso, iPhones, Netbooks.
  5. Grandes capacidades de armazenamento. (Eu passei de um disquete grande de 90k para um pen drive USB de 8 GB.
  6. Vários processadores. (Quase todos os meus computadores têm mais de um agora, o software luta para mantê-los ocupados).
  7. Interfaces padrão (como USB) para conectar facilmente periféricos de hardware.
  8. Vários toques são exibidos.
  9. Conectividade de rede - levando à explosão da Internet em meados dos anos 90.
  10. IDE's com Intellisense e compilação incremental.

Embora o hardware tenha melhorado tremendamente, a indústria de software tem se esforçado para acompanhar. Estamos anos-luz à frente de 1980, mas a maioria das melhorias foram aprimoramentos e não invenções. Desde 1980, estamos muito ocupados aplicando o que os avanços nos permitem fazer, em vez de inventar. Por si só, a maioria dessas invenções incrementais não é importante ou poderosa, mas quando você olha para trás nos últimos 29 anos, elas são bastante poderosas.

Provavelmente precisamos adotar as melhorias incrementais e orientá-las. Acredito que idéias verdadeiramente originais provavelmente venham de pessoas com pouca exposição a computadores e estão se tornando cada vez mais difíceis de encontrar.

bruceatk
fonte
"idéias originais provavelmente virão de pessoas com pouca exposição a computadores" tão verdadeiras. e ainda mais triste, já que a maior parte dessa exposição “entorpecente” é em janelas / escritórios.
Javier
1
Algumas datas para invenções anteriores: a GUI da Engelbart foi demonstrada em 1968 e a Xerox PARC Alto foi desenvolvida em 1973. Múltiplas CPUs são novas na área de trabalho, mas não na sala de máquinas - o cluster VAX estava disponível pela primeira vez em 1978.
Hudson
Você estava programando antes de eu nascer. Dang, ainda tenho um longo caminho a percorrer.
Kezzer
Ai. Não comecei até os 26 anos, agora me sinto realmente velha. :)
bruceatk
Você considerou a inflação para esse chip de memória de US $ 200 de 16 mil?
Tim Tonnesen 19/01/09
22

Nada.

Eu acho que é porque as pessoas mudaram de atitude. As pessoas costumavam acreditar que, se encontrassem essa "grande idéia", ficariam ricas. Hoje, as pessoas acreditam que é a execução e não a descoberta que mais paga. Você tem mantras como "as idéias custam uma dúzia" e "o segundo rato pega o queijo". Portanto, as pessoas estão focadas em explorar as idéias existentes, em vez de criar novas.

Edward Basena
fonte
3
Muitas das idéias existentes ainda não foram implementadas ainda.
Breton
3
Há sempre alguns lunáticos que virão para cima com novas ideias, eles simplesmente não posso ajudá-lo ;-)
Johan
Mas eles são lunáticos, então não podem vender suas idéias, porque ninguém as ouvirá.
23611 Adam Jaskiewicz
As idéias são mais uma província dos artistas. Implementação prática é o que fazemos. Olhar para os engenheiros em busca de novas idéias é como pescar no lago errado. Para novas idéias brilhantes, leia Sf e descubra como essas coisas podem ser feitas (acho que muitas delas podem ser feitas). No entanto, implementar uma idéia selvagem pode levar anos. Os artistas podem vender idéias e sonhos, mas os engenheiros devem criar produtos ... e eles também precisam comer.
9119 Sylverdrag
16

Desenvolvimento da comunidade de código aberto.

Sharkin
fonte
2
Na verdade, o grupo de usuários SIG / M discos pré-datam o que chamamos de código aberto. Ele continha centenas de discos (da variedade de disquetes) cheios de software CP / M, muitos deles de código aberto (embora o termo "código aberto" não existisse na época).
Mike Thompson
2
No sentido de cooperação e desenvolvimento abertos entre pessoas que tiveram acesso a um computador, é muito parecido com os grupos de usuários da IBM na década de 1960. Agora, apenas mais pessoas podem comprar computadores.
David Thornley
2
Concordo com a david, ele só se tornou mais proeminente agora, à medida que os computadores passaram das áreas educacional e científica para o mundo dos negócios, o que deu origem ao software de código fechado, confundindo licenças. Estava sempre lá, só não precisava de um nome até os advogados se envolverem.
saschabeaumont
1
Sim, também devo concordar com David aqui. O código aberto é bem anterior a 1980. É anterior a pelo menos 20 anos. Eu pensei que era nos anos 50 e não nos anos 60.
Brendan Enrick
16

O iPad (lançado em abril de 2010): certamente esse conceito é absolutamente revolucionário!

texto alternativo http://www.ubergizmo.com/photos/2010/1/apple-ipad//apple-ipad-05.JPG

De jeito nenhum Alan Kay viu isso vindo dos anos 70!
Imagine um "manipulador de informações portátil e pessoal" ...


...

Esperar? O que!? O Dynabook que você diz?

texto alternativo

Pensado por Alan Kay já em 1968, e descrito em grandes detalhes neste artigo de 1972 ?

NOOOooo ooooo ....

Oh bem ... não importa.

VonC
fonte
Consulte stackoverflow.com/questions/432922/… para obter um contexto maior ilustrado por esta resposta.
VonC
Bem, certamente a idéia já existia antes (por exemplo, apple newton); no entanto, a tecnologia agora foi tão longe que é possível criar um dispositivo de consumidor barato (e ótimo).
Nils