Essa questão surgiu de comentários sobre diferentes tipos de progresso na computação nos últimos 50 anos.
Alguns outros participantes me pediram para fazer uma pergunta a todo o fórum.
A idéia básica aqui não é bash o estado atual das coisas, mas tentar entender algo sobre o progresso de apresentar novas idéias e princípios fundamentais.
Afirmo que precisamos de idéias realmente novas na maioria das áreas da computação e gostaria de saber quais são as importantes e poderosas que foram feitas recentemente. Se não conseguimos encontrá-los, devemos perguntar "Por quê?" e "O que devemos fazer?"
innovation
Alan Kay
fonte
fonte
Respostas:
A própria Internet é anterior a 1980, mas a World Wide Web ("hipertexto distribuído por mecanismos simples"), como proposto e implementado por Tim Berners-Lee, começou em 1989/90.
Enquanto a idéia de hipertexto já existia antes ( o Xanadu de Nelson tentara implementar um esquema distribuído), a WWW era uma nova abordagem para a implementação de um sistema de hipertexto distribuído. Berners-Lee combinou um protocolo cliente-servidor simples, linguagem de marcação e esquema de endereçamento de uma maneira poderosa e fácil de implementar.
Eu acho que a maioria das inovações são criadas para combinar novamente as peças existentes de uma maneira original. Cada uma das peças da WWW já existia de alguma forma antes, mas a combinação era óbvia apenas em retrospectiva.
E eu tenho certeza que você está usando agora.
fonte
Free Software Foundation (Fundada em 1985)
Mesmo que você não seja um defensor sincero de sua filosofia, as idéias que eles têm promovido, de software livre, de código aberto tiveram uma influência incrível na indústria de software e no conteúdo em geral (por exemplo, Wikipedia).
fonte
Eu acho que é justo dizer que em 1980, se você estava usando um computador, estava sendo pago por isso ou era um nerd ... então o que mudou?
Impressoras e editoração eletrônica no nível do consumidor . Significava que você não precisava de uma impressora para produzir material impresso de alto volume e alta qualidade. Isso foi grande - é claro, hoje em dia nós tomamos isso como garantido, e principalmente nem nos importamos com a parte da impressão, porque todo mundo está on-line de qualquer maneira.
Cor . A sério. As telas coloridas fizeram uma enorme diferença na percepção de jogos e aplicativos dos não-geeks. De repente, os jogos pareciam menos trabalho duro e mais como assistir TV, o que abriu as portas para Sega, Nintendo, Atari et al.
Compactação de mídia (MP3s e arquivos de vídeo). E um monte de coisas - como TiVO e iPods - que não pensamos mais em computadores porque são tão onipresentes e fáceis de usar. Mas eles são.
Acho que o fio comum aqui é algo que antes era impossível (criar documentos impressos; reproduzir imagens coloridas com precisão; enviar mensagens ao redor do mundo em tempo real; distribuir material de áudio e vídeo), e era caro por causa do equipamento e da logística envolvido e agora está no nível do consumidor. Então - o que as grandes empresas estão fazendo agora que antes eram impossíveis, mas podem ser legais se pudermos descobrir como fazê-lo pequeno e barato?
Qualquer coisa que ainda envolva transporte físico é interessante de se ver. A videoconferência ainda não substituiu as reuniões reais - mas com a tecnologia certa, ela ainda pode. Algumas viagens de lazer poderiam ser eliminadas por um ambiente imersivo de sensorial total - o cinema em casa é um exemplo trivial; outro é o "campo de golfe virtual" em um prédio de escritórios no Soho, onde você joga 18 buracos de golfe real em um campo simulado.
Para mim, porém, a próxima grande coisa será a fabricação. Fazendo coisas. Colheres, guitarras, cadeiras, roupas, carros, azulejos e outras coisas. Coisas que ainda dependem de uma infraestrutura de fabricação e distribuição. Não preciso mais ir a uma loja para comprar um filme ou um álbum - quanto tempo até não precisar ir à loja comprar roupas e utensílios de cozinha?
Certamente, há desenvolvimentos interessantes em andamento com monitores OLED, GPS e contêineres de banda larga móvel e IoC e scripts e "a nuvem" - mas ainda são apenas novas maneiras de colocar fotos em uma tela. Posso imprimir minhas próprias fotos e escrever minhas próprias páginas da web, mas quero poder fabricar uma cesta de linho que caiba exatamente no canto ao lado da minha mesa e um suporte de montagem para prender minha unidade FX da guitarra na minha mesa e algo assim por prender meu celular no guidão da bicicleta.
Não está relacionado à programação? Não ... mas em 1980, nem a produção de som. Ou distribuição de vídeo. Ou enviando mensagens para seus parentes na Zâmbia. Pense grande, pessoal ... :)
fonte
Gerenciamento de pacotes e controle de revisão distribuído.
Esses padrões na maneira como o software é desenvolvido e distribuído são bastante recentes e ainda estão apenas começando a causar impacto.
Ian Murdock chamou o gerenciamento de pacotes de "o maior avanço que o Linux trouxe para o setor". Bem, ele faria, mas ele tem razão. A maneira como o software é instalado mudou significativamente desde 1980, mas a maioria dos usuários de computadores ainda não experimentou essa alteração.
Joel e Jeff têm falado sobre controle de revisão (ou controle de versão ou controle de origem) com Eric Sink no Podcast # 36 . Parece que a maioria dos desenvolvedores ainda não alcançou os sistemas centralizados , e o DVCS é amplamente visto como misterioso e desnecessário.
Da transcrição do Podcast 36 :
fonte
With distributed version control, the distributed part is actually not the most interesting part.
BitTorrent . Isso muda completamente o que antes parecia uma regra obviamente imutável - o tempo que leva para uma única pessoa baixar um arquivo pela Internet cresce proporcionalmente ao número de pessoas que o baixam. Ele também aborda as falhas das soluções ponto a ponto anteriores, particularmente em torno do 'sanguessuga', de uma maneira que é orgânica para a própria solução.
O BitTorrent transforma elegantemente o que normalmente é uma desvantagem - muitos usuários tentando baixar um único arquivo simultaneamente - em uma vantagem, distribuindo o arquivo geograficamente como parte natural do processo de download. Sua estratégia para otimizar o uso da largura de banda entre dois pares desencoraja o uso de sanguessugas como efeito colateral - é do interesse de todos os participantes impor a limitação.
É uma daquelas idéias que, uma vez que alguém a inventa, parece simples, se não óbvia.
fonte
A inferência do tipo Damas-Milner (freqüentemente chamada de inferência do tipo Hindley-Milner) foi publicada em 1983 e tem sido a base de todo sistema sofisticado de tipo estático desde então. Era uma idéia genuinamente nova em linguagens de programação (admitida com base em idéias publicadas na década de 1970, mas que não foi tornada prática até depois de 1980). Em termos de importância, eu coloco isso no Self e nas técnicas usadas para implementar o Self; em termos de influência, não tem pares. (O resto do mundo OO ainda está fazendo variações no Smalltalk ou no Simula.)
Variações na inferência de tipo ainda estão ocorrendo; a variação que eu mais destacaria é o mecanismo de classe de tipo de Wadler e Blott para resolver sobrecargas, que mais tarde foi descoberto como oferecendo mecanismos muito poderosos para a programação no nível de tipo. O fim desta história ainda está sendo escrito.
fonte
Aqui está um plug para reduzir o mapa do Google , não apenas por si só, mas como um proxy para a conquista do Google de executar serviços rápidos e confiáveis em cima de fazendas de máquinas de commodities não confiáveis. Definitivamente, uma invenção importante e totalmente diferente das abordagens de mainframe de ferro grande para o cálculo de pesos pesados que dominaram o cenário em 1980.
fonte
Identificação , a maneira como as informações são categorizadas. Sim, as pequenas caixas de texto em cada pergunta.
É incrível que demorou cerca de 30 anos para inventar a marcação. Usamos listas e índices; usamos coisas otimizadas para livros impressos.
No entanto, 30 anos é muito mais curto do que o tempo que as pessoas precisavam para perceber que os livros impressos podem estar em formato menor. As pessoas podem manter os livros nas mãos.
Eu acho que o conceito de marcação está subestimado entre os caras do núcleo do CS. Toda a pesquisa está focada no processamento de linguagem natural (abordagem de cima para baixo). Mas a marcação é o primeiro idioma no qual computadores e pessoas podem entender bem. É uma abordagem de baixo para cima que faz com que os computadores usem linguagens naturais.
fonte
Acho que estamos encarando isso da maneira errada e tirando conclusões erradas. Se eu entendi direito, o ciclo continua:
Idéia -> primeira implementação -> adoção minoritária -> massa crítica -> produto de commodities
Desde a primeira idéia até a mercadoria, você costuma ter séculos, supondo que a idéia chegue a esse estágio. Da Vinci pode ter desenhado algum tipo de helicóptero em 1493, mas demorou cerca de 400 anos para obter uma máquina real capaz de se levantar do chão.
Desde a primeira descrição de William Bourne de um submarino em 1580 até a primeira implementação em 1800, você tem 220 anos e os submarinos atuais ainda estão em um estágio inicial: quase nada sabemos sobre viagens subaquáticas (com 2/3 do planeta submarino, pense em o potencial imobiliário;).
E não há como dizer que não havia idéias anteriores, muito anteriores, das quais nunca ouvimos falar. Com base em algumas lendas, parece que Alexandre, o Grande, usou algum tipo de sino de mergulho em 332 aC (que é a idéia básica de um submarino: um dispositivo para transportar pessoas e suprimento de ar abaixo do mar). Contando isso, estamos analisando 2000 anos desde a ideia (mesmo com um protótipo básico) até o produto.
O que estou dizendo é que hoje procurar implementações, muito menos produtos, que nem sequer eram idéias antes de 1980, é ... aposto que o algoritmo de "ordenação rápida" foi usado por algum caixeiro sem nome na China antiga. E daí?
Havia computadores em rede há 40 anos, com certeza, mas isso não se comparava à Internet de hoje. A idéia / tecnologia básica estava lá, mas independentemente de você não poder jogar um jogo de Warcraft online.
Historicamente, nunca conseguimos "encontrá-los" tão perto da ideia, tão rápido. Eu acho que o ciclo está ficando mais rápido, mas a computação ainda é muito jovem.
Atualmente, estou tentando descobrir como fazer um holograma (do tipo Guerra nas Estrelas, sem nenhum suporte físico). Eu acho que sei como fazê-lo funcionar. Eu nem sequer reuni as ferramentas, materiais, financiamento e, mesmo assim, se eu tivesse sucesso em algum grau, a idéia real já teria várias décadas, no mínimo, e as implementações / tecnologias relacionadas foram usadas por tanto tempo .
Assim que você começa a listar produtos reais, pode ter certeza de que os conceitos e as primeiras implementações existiam há algum tempo. Não importa.
Você poderia argumentar com alguma razão que nada é novo, sempre, ou que tudo é novo, sempre. Essa é a filosofia e os dois pontos de vista podem ser defendidos.
Do ponto de vista prático, a verdade está algures no meio. A verdade não é um conceito binário, lógico booleano que se dane.
Os chineses podem ter inventado a impressora há algum tempo, mas há apenas 10 anos a maioria das pessoas pode imprimir fotos coloridas decentes em casa por um preço razoável.
A invenção não está em lugar algum e em qualquer lugar, dependendo de seus critérios e quadro de referência.
fonte
Algoritmo do Page Rank do Google . Embora pudesse ser visto apenas como um refinamento dos mecanismos de pesquisa de rastreamento na Web, eu gostaria de salientar que eles também foram desenvolvidos após 1980.
fonte
DNS, 1983, e avanços dependentes, como resolução de host de email por meio de registros MX em vez de caminhos de bang. * estremecer *
Zeroconf trabalhando em cima do DNS, 2000. Conecto minha impressora à rede e meu laptop a vê. Inicio um servidor web na rede e meu navegador o vê. (Supondo que eles transmitam sua disponibilidade.)
NTP (1985) baseado no algoritmo de Marzullo (1984). Tempo preciso em redes instáveis.
A roda de rolagem do mouse, 1995. O uso de mouse sem ele é tão primitivo. E não, não é algo que a equipe de Engelbart pensou e esqueceu de mencionar. Pelo menos não quando perguntei a alguém que estava na equipe na época. (Foi em algum evento da Engelbart em 1998, aproximadamente. Eu consegui lidar com um dos primeiros ratos.)
Unicode, 1987, e seus avanços dependentes para diferentes tipos de codificação, normalização, texto bidirecional etc.
Sim, é bastante comum as pessoas usarem todos esses 5 todos os dias.
Essas são "idéias realmente novas?" Afinal, havia ratos, codificações de caracteres, cronometragem da rede. Diga-me como posso distinguir entre "novo" e "realmente novo" e eu responderei esse para você. Minha intuição diz que estas são novas o suficiente.
Em domínios menores, há avanços facilmente mais recentes. Em bioinformática, por exemplo, Smith-Waterman (1981) e mais especialmente BLAST (1990) tornam o campo possível de maneira eficaz. Mas parece que você está pedindo idéias que são muito amplas em todo o campo da computação, e os frutos mais baixos são escolhidos primeiro. Assim é sempre com um novo campo.
fonte
E as câmeras digitais?
Segundo a Wikipedia, a primeira câmera digital verdadeira apareceu em 1988, com as câmeras digitais de mercado de massa se tornando acessíveis no final dos anos 90.
fonte
Linguagens de sombreamento modernas e a prevalência de GPUs modernas.
A GPU também é um supercomputador paralelo de baixo custo com ferramentas como CUDA e OpenCL para código paralelo de alto nível . Obrigado a todos os jogadores que estão por aí reduzindo os preços dessas maravilhas de hardware cada vez mais impressionantes. Nos próximos cinco anos, espero que todos os novos computadores vendidos (e também os iPhones) tenham a capacidade de executar códigos paralelos em massa como uma suposição básica, como as cores de 24 bits ou o modo protegido de 32 bits.
fonte
A compilação JIT foi inventada no final dos anos 80.
fonte
Para abordar as duas perguntas sobre "Por que a morte de novas idéias" e "o que fazer sobre isso"?
Suspeito que grande parte da falta de progresso se deva ao influxo maciço de capital e riqueza arraigada no setor. Parece contra-intuitivo, mas acho que se tornou uma sabedoria convencional que qualquer nova idéia tenha uma chance; se não conseguir na primeira tentativa, não poderá voltar. É comprado por alguém com interesses arraigados, ou apenas FALHAS, e a energia acaba. Alguns exemplos são computadores tablet e software de escritório integrado. O Newton e vários outros tinham um potencial real, mas acabaram (por atrito competitivo e mau julgamento) desperdiçando seus direitos de nascimento, matando categorias inteiras. (Eu gostava especialmente do Framework de Ashton Tate; mas ainda estou preso ao Word e Excel).
O que fazer? A primeira coisa que vem à mente é Wm. O conselho de Shakespeare: "Vamos matar todos os advogados". Mas agora eles estão muito bem armados, receio. Na verdade, acho que a melhor alternativa é encontrar algum tipo de iniciativa de código aberto. Eles parecem manter a acessibilidade e a melhoria incremental melhores do que as alternativas. Mas a indústria ficou grande o suficiente para que algum tipo de mecanismo colaborativo orgânico seja necessário para obter tração.
Eu também acho que há uma dinâmica que diz que os interesses entrincheirados (especialmente plataformas) exigem uma quantidade substancial de mudanças - rotatividade - para justificar fluxos contínuos de receita; e isso absorve muita energia criativa que poderia ter sido gasta de maneiras melhores. Veja quanto tempo gastamos navegando na água com a mais nova iteração da Microsoft ou Sun ou Linux ou Firefox, fazendo alterações nos sistemas que, na maioria das vezes, já funcionam bem. Não é porque eles são maus, é apenas incorporado à indústria. Não existe equilíbrio estável; todos os mecanismos de feedback são positivos, favorecendo mudanças sobre estabilidade. Você já viu um recurso retirado ou uma alteração retirada?
A outra pista que foi discutida sobre o SO é a Síndrome de Skunkworks (ref: Geoffrey Moore): inovação real em grandes organizações quase sempre aparece (mais de 90%) em projetos não autorizados que surgem espontaneamente, alimentados exclusivamente por iniciativas individuais ou de pequenos grupos ( e mais frequentemente do que não se opõem às hierarquias formais de gerenciamento). Então: Pergunta Autoridade, Buck the System.
fonte
Uma coisa que me surpreende é a humilde planilha. Pessoas que não são programadores criam soluções maravilhosas para problemas do mundo real com uma grade simples de fórmula. A replicação de seus esforços no aplicativo de desktop geralmente leva de 10 a 100 vezes mais tempo do que a gravação da planilha e o aplicativo resultante costuma ser mais difícil de usar e cheio de bugs!
Acredito que a chave para o sucesso da planilha é a análise automática de dependências. Se o usuário da planilha fosse forçado a usar o padrão de observador, ele não teria chance de acertar.
Portanto, o grande avanço é a análise automática de dependências. Agora, por que nenhuma plataforma moderna (Java, .Net, Web Services) incorporou isso ao núcleo do sistema? Especialmente em um dia e idade de escalonamento por meio da paralelização - um gráfico de dependências leva à recomputação paralela trivialmente.
Edit: Dang - apenas verificado. O VisiCalc foi lançado em 1979 - vamos fingir que é uma invenção pós-1980.
Edit2: Parece que a planilha já foi anotada por Alan de qualquer maneira - se a pergunta que o comprou neste fórum está correta!
fonte
Programas:
Virtualização e emulação
Transferências de dados P2P
projetos voltados para a comunidade como Wikipedia, SETI @ home ...
mecanismos de rastreamento e pesquisa na Web, ou seja, indexação de informações espalhadas por todo o mundo
Hardware:
o PC modular
E-paper
fonte
A redescoberta da mônada por pesquisadores de programação funcional. A mônada foi fundamental para permitir que uma linguagem pura e preguiçosa (Haskell) se tornasse uma ferramenta prática; também influenciou o design das bibliotecas combinadoras (combinadores de analisadores monádicos chegaram até ao Python).
"Um relato teórico de categorias de módulos de programas" (1989) de Moggi é geralmente creditado por trazer mônadas à vista para uma computação eficaz; O trabalho de Wadler (por exemplo, "Programação funcional imperativa" (1993)) apresentou mônadas como ferramenta prática.
fonte
Shrinkwrap software
Antes de 1980, o software era principalmente especialmente escrito. Se você administrava uma empresa e queria informatizar, normalmente adquiria um computador, um compilador e um banco de dados, além de escrever suas próprias coisas. Normalmente, o software comercial foi escrito para se adaptar às práticas comerciais. Isso não quer dizer que não havia software enlatado (trabalhei com o SPSS antes de 1980), mas não era a norma, e o que vi tendia a ser software de infraestrutura e pesquisa.
Atualmente, você pode ir a uma loja de computadores e encontrar na prateleira tudo o que precisa para administrar uma pequena empresa. Ele não foi projetado para se encaixar perfeitamente nas práticas que você costumava ter, mas funcionará bem quando você aprender a trabalhar mais ou menos de acordo com o fluxo de trabalho. As grandes empresas estão muito mais próximas do que costumavam ser, com coisas como SAP e PeopleSoft.
Não é um problema, mas depois de 1980 houve uma mudança muito definitiva de um software personalizado caro para um software de prateleira de baixo custo, e a flexibilidade mudou de software para procedimentos de negócios.
Isso também afetou a economia do software. Soluções de software personalizadas podem ser rentáveis, mas não escalam. Você pode cobrar apenas um cliente e não pode vender a mesma coisa para vários clientes. Com o software shrinkwrap, você pode vender muitas e muitas coisas iguais, amortizando os custos de desenvolvimento em uma base de vendas muito grande. (Você precisa fornecer suporte, mas isso aumenta. Apenas considere um custo marginal de venda do software.)
Teoricamente, onde há grandes vencedores de uma mudança, haverá perdedores. Até agora, os negócios de software continuaram se expandindo, de modo que, à medida que as áreas se tornam comoditizadas, outras áreas se abrem. Provavelmente, isso chegará ao fim em algum momento, e desenvolvedores moderadamente talentosos se encontrarão em uma crise real, incapazes de trabalhar para os meninos grandes e fora do mercado. (Isso provavelmente ocorre para outros campos; suspeito que a demanda por contadores seja muito menor do que seria sem o QuickBooks e similares.)
fonte
Fora das inovações de hardware, costumo descobrir que há pouco ou nada de novo sob o sol. A maioria das idéias realmente grandes remonta a pessoas como von Neumann e Alan Turing.
Atualmente, muitas coisas rotuladas como 'tecnologia' são apenas um programa ou biblioteca que alguém escreveu, ou uma reforma de uma ideia antiga com uma nova metáfora, acrônimo ou nome de marca.
fonte
Worms de computador foram pesquisados no início dos anos oitenta do século passado no Centro de Pesquisa Xerox Palo Alto.
Dos programas "Worm" de John Shoch e Jon Hupp - experiência inicial com uma computação distribuída "(Communications of the ACM, março de 1982, volume 25, número 25, pp.172-180, março de 1982):
Citando Alan Kay: "A melhor maneira de prever o futuro é inventá-lo".
fonte
Melhores interfaces de usuário.
As interfaces de usuário de hoje ainda são péssimas. E não quero dizer de maneiras pequenas, mas de maneiras grandes e fundamentais. Não posso deixar de notar que mesmo os melhores programas ainda têm interfaces extremamente complexas ou que exigem muito pensamento abstrato de outras maneiras, e que simplesmente não se aproximam da facilidade das ferramentas convencionais que não são de software.
Concedido, isso se deve ao fato de o software permitir fazer muito mais do que as ferramentas convencionais. Isso não é motivo para aceitar o status quo. Além disso, a maioria dos softwares simplesmente não é bem feita.
Em geral, as aplicações ainda carecem de um certo sentimento de que “apenas funciona” é muito orientado pelo que pode ser feito, e não pelo que deve ser feito. Um ponto que foi levantado repetidamente, e que ainda não foi resolvido, é o ponto de economizar. Os aplicativos falham, destruindo horas de trabalho. Eu tenho o hábito de pressionar Ctrl + S a cada poucos segundos (é claro, isso não funciona mais em aplicativos da web). Por que eu tenho que fazer isso? É estupidamente estúpido. Essa é claramente uma tarefa para automação. Obviamente, o aplicativo também precisa salvar um diff para todas as modificações que eu fizer (basicamente uma lista infinita de desfazer) caso eu cometa um erro.
Resolver esse problema não é realmente difícil. Seria difícil implementá-lo em todos os aplicativos, pois não há uma boa API para fazer isso. As ferramentas e bibliotecas de programação precisam melhorar significativamente antes de permitir uma implementação sem esforço de tais recursos em todas as plataformas e programas, para todos os formatos de arquivo com armazenamento de backup arbitrário e sem a interação necessária do usuário. Mas é um passo necessário antes de finalmente começarmos a escrever aplicativos “bons” em vez de apenas aplicativos adequados.
Acredito que a Apple atualmente se aproxima do "apenas funciona", sentindo-se melhor em alguns aspectos. Tomemos, por exemplo, a versão mais recente do iPhoto, que possui um reconhecimento facial que agrupa fotos automaticamente pelas pessoas que aparecem nelas. Essa é uma tarefa clássica que o usuário não deseja executar manualmente e não entende por que o computador não faz isso automaticamente. E até o iPhoto ainda está muito longe de uma boa interface do usuário, pois esse recurso ainda requer confirmação final do usuário (para cada foto!), Pois o mecanismo de reconhecimento de rosto não é perfeito.
fonte
Sistemas HTM ( Memória Temporal Hiearchical ).
Uma nova abordagem para a Inteligência Artificial, iniciada por Jeff Hawkins através do livro " On Intelligence ".
Agora ativo como uma empresa chamada Numenta, onde essas idéias são postas à prova através do desenvolvimento de IA "verdadeira", com um convite à comunidade para participar usando o sistema por meio de SDKs.
É mais sobre construir a inteligência das máquinas desde o início, em vez de tentar imitar o raciocínio humano.
fonte
O uso da interação da Física no Computador Humano para fornecer uma metáfora alternativa e compreensível. Isso combinado com gestos e hápticos provavelmente resultará em uma substituição da atual metáfora da GUI comum inventada nos anos 70 e em uso comum desde meados do final dos anos 80.
O poder da computação não estava presente em 1980 para tornar isso possível. Acredito que os Jogos provavelmente lideraram o caminho até aqui. Um exemplo pode ser visto facilmente na interação da rolagem de lista no iPod Touch / iPhone. O mecanismo de interação se baseia na intuição de como o momento e o atrito funcionam no mundo real para fornecer uma maneira simples de rolar uma lista de itens, e a usabilidade se baseia no gesto físico que causa o deslocamento.
fonte
Acredito que Teste de Unidade, TDD e Integração Contínua são invenções significativas após 1980.
fonte
Celulares.
Enquanto a primeira patente de "telefone celular" foi em 1908, e eles estavam cozinhando por muito tempo (0G em 1945, 1G lançado no Japão em 1979), os modernos celulares digitais 2G não apareceram até 1991. O SMS não existia. até 1993, e o acesso à Internet apareceu em 1999.
fonte
Comecei a programar em 2 de janeiro de 1980. Tentei pensar em novas invenções significativas ao longo da minha carreira. Eu luto para pensar em alguma. A maior parte do que considero significativo foi realmente inventada antes de 1980, mas depois não foi amplamente adotada ou melhorada até depois.
Embora o hardware tenha melhorado tremendamente, a indústria de software tem se esforçado para acompanhar. Estamos anos-luz à frente de 1980, mas a maioria das melhorias foram aprimoramentos e não invenções. Desde 1980, estamos muito ocupados aplicando o que os avanços nos permitem fazer, em vez de inventar. Por si só, a maioria dessas invenções incrementais não é importante ou poderosa, mas quando você olha para trás nos últimos 29 anos, elas são bastante poderosas.
Provavelmente precisamos adotar as melhorias incrementais e orientá-las. Acredito que idéias verdadeiramente originais provavelmente venham de pessoas com pouca exposição a computadores e estão se tornando cada vez mais difíceis de encontrar.
fonte
Nada.
Eu acho que é porque as pessoas mudaram de atitude. As pessoas costumavam acreditar que, se encontrassem essa "grande idéia", ficariam ricas. Hoje, as pessoas acreditam que é a execução e não a descoberta que mais paga. Você tem mantras como "as idéias custam uma dúzia" e "o segundo rato pega o queijo". Portanto, as pessoas estão focadas em explorar as idéias existentes, em vez de criar novas.
fonte
Desenvolvimento da comunidade de código aberto.
fonte
O iPad (lançado em abril de 2010): certamente esse conceito é absolutamente revolucionário!
texto alternativo http://www.ubergizmo.com/photos/2010/1/apple-ipad//apple-ipad-05.JPG
De jeito nenhum Alan Kay viu isso vindo dos anos 70!
Imagine um "manipulador de informações portátil e pessoal" ...
...
Esperar? O que!? O Dynabook que você diz?
Pensado por Alan Kay já em 1968, e descrito em grandes detalhes neste artigo de 1972 ?
NOOOooo ooooo ....
Oh bem ... não importa.
fonte