Artigos

1.6.3.3: A história muito curta do S e R


R é o ambiente estatístico. A ideia era fazer uma realização independente do conceito da linguagem S, que seria diferente do S-Plus em alguns detalhes (por exemplo, na forma como funciona com variáveis ​​locais e globais).

Praticamente, R não é uma imitação do S-Plus, mas o novo “ramo” da família de software S. Na década de 1990, R estava se desenvolvendo lentamente, mas quando os usuários finalmente perceberam suas oportunidades verdadeiramente incríveis (como o sistema de extensões R -pacotes, ou bibliotecas) e começou a migrar de outros sistemas estatísticos, R começou a crescer exponencialmente. Agora, existem milhares de pacotes R, e R é usado em quase todos os lugares! Sem exagero, R é agora a ferramenta de software mais importante para análise de dados.


Um guia para a história de reconhecimento, relações diplomáticas e consulares dos Estados Unidos, por país, desde 1776: Kosovo

História: Os otomanos governaram Kosovo por mais de quatro séculos, até que a Sérvia adquiriu o território durante a Primeira Guerra dos Balcãs em 1912-13.

Século 20: primeiro dividido em 1913 entre a Sérvia e Montenegro, Kosovo foi então incorporado ao Reino dos Sérvios, Croatas e Eslovenos (mais tarde chamado de Iugoslávia) após a Primeira Guerra Mundial. Durante a Segunda Guerra Mundial, partes de Kosovo foram absorvidas pela Itália -ocupada Albânia. Após a capitulação italiana, a Alemanha nazista assumiu o controle de Kosovo até que os guerrilheiros iugoslavos de Tito entraram no fim da guerra.

Após a Segunda Guerra Mundial, Kosovo se tornou uma província autônoma da Sérvia na República Socialista Federal da Iugoslávia (S.F.R.Y.). A Constituição iugoslava de 1974 deu a Kosovo (junto com Vojvodina) o status de Província Autônoma Socialista na Sérvia. Como tal, possuía direitos quase iguais aos das seis Repúblicas Socialistas constituintes do S.F.R.Y.

Em 1981, tumultos eclodiram e foram reprimidos com violência depois que os albaneses de Kosovo fizeram uma demonstração para exigir que Kosovo recebesse o status de República plena. No final da década de 1980, Slobodan Milosevic subiu ao poder em Belgrado, explorando os temores da minoria sérvia em Kosovo. Em 1989, ele eliminou a autonomia de Kosovo e impôs o governo direto de Belgrado. Belgrado ordenou a demissão da maioria dos funcionários públicos de etnia albanesa, cujos empregos foram então assumidos por sérvios.

Em resposta, os líderes albaneses do Kosovo iniciaram um movimento de resistência pacífica no início da década de 1990, liderado por Ibrahim Rugova. Eles estabeleceram um governo paralelo financiado principalmente pela diáspora albanesa. Quando este movimento falhou em produzir resultados, uma resistência armada emergiu em 1997 na forma do Exército de Libertação de Kosovo (KLA). O principal objetivo do KLA era garantir a independência do Kosovo.

No final de 1998, Milosevic desencadeou uma campanha policial e militar brutal contra o KLA, que incluiu atrocidades generalizadas contra civis. O fracasso de Milosevic em concordar com os Acordos de Rambouillet desencadeou uma campanha militar da OTAN para deter a violência no Kosovo. Esta campanha consistiu principalmente no bombardeio aéreo da República Federal da Iugoslávia (F.R.Y.), incluindo Belgrado, e continuou de março a junho de 1999. Após 78 dias de bombardeio, Milosevic capitulou. Pouco depois, o Conselho de Segurança da ONU adotou a Resolução 1244 (1999), que suspendeu a governança de Belgrado sobre Kosovo, e sob a qual Kosovo foi colocado sob a administração da Missão de Administração Provisória das Nações Unidas em Kosovo (UNMIK), e que autorizou uma força de manutenção da paz da OTAN . A Resolução 1244 também previu um processo político projetado para determinar o futuro status de Kosovo.

Enquanto os albaneses étnicos voltavam para suas casas, elementos do KLA realizaram represálias e sequestros de sérvios e ciganos étnicos em Kosovo. Milhares de sérvios étnicos, ciganos e outras minorias fugiram de suas casas durante a segunda metade de 1999 e muitos permanecem deslocados.

O Século 21: Em novembro de 2005, o Grupo de Contato (França, Alemanha, Itália, Rússia, Reino Unido e Estados Unidos) produziu um conjunto de “Princípios Orientadores” para a resolução do futuro status de Kosovo. Alguns princípios-chave incluíam: nenhum retorno à situação antes de 1999, nenhuma mudança nas fronteiras do Kosovo e nenhuma partição ou união do Kosovo com um estado vizinho. O Grupo de Contato disse mais tarde que o futuro status de Kosovo tinha que ser aceitável para o povo de Kosovo.

Kosovo declarou sua independência da Sérvia em 17 de fevereiro de 2008. Em sua declaração de independência, Kosovo se comprometeu a cumprir suas obrigações sob o Plano Ahtisaari, a abraçar a multietnicidade como um princípio fundamental de boa governança e a dar as boas-vindas a um período de supervisão internacional .

Os Estados Unidos reconheceram formalmente Kosovo como um estado soberano e independente em 18 de fevereiro. Até o momento, Kosovo foi reconhecido por uma grande maioria de estados europeus, os Estados Unidos, Japão e Canadá, e por outros estados das Américas, África, e na Ásia. Pouco depois da independência, vários estados estabeleceram um Grupo de Coordenação Internacional (ISG) para Kosovo que nomeou o diplomata holandês Pieter Feith como o primeiro Representante Civil Internacional (ICR) de Kosovo.


24. Ty Lawson - 5 pés-11

Ty Lawson quando estava com o Denver Nuggets em 2013 | Doug Pensinger / Getty Images

Originalmente a 18ª escolha geral do draft de 2009, Ty Lawson fez uma carreira incrível em seus primeiros anos como armador titular do Denver Nuggets. Sua melhor temporada foi em 2013-14, quando obteve uma média de 17,6 pontos e 8,8 assistências por jogo para o Denver. Desde então, ele viu breves paradas com o Houston Rockets, Indiana Pacers e agora com o Sacramento Kings. Lawson tem uma média de apenas 7,4 pontos e 4,8 assistências este ano, jogando 27,2 minutos por jogo.


Conteúdo

Uma característica definidora do nanismo é uma altura adulta menor que o percentil 2,3 dos gráficos de crescimento padrão do CDC. [16] Existe uma ampla gama de características físicas. As variações nos indivíduos são identificadas pelo diagnóstico e monitoramento dos distúrbios subjacentes. Pode não haver complicações fora da adaptação ao seu tamanho.

A baixa estatura é uma substituição comum do termo "nanismo", especialmente em um contexto médico. A baixa estatura é clinicamente definida como uma altura dentro dos 2,3% mais baixos da população em geral. No entanto, aqueles com displasias esqueléticas leves podem não ser afetados pelo nanismo. Em alguns casos de hipocondroplasia não tratada, os homens crescem até 165 cm (5 pés e 5 polegadas). Embora seja curto em um contexto relativo, não se enquadra nas faixas extremas dos gráficos de crescimento.

O nanismo desproporcional é caracterizado por membros encurtados ou torso encurtado. Na acondroplasia, a pessoa tem um tronco de tamanho médio com membros curtos e testa larga. [17] As características faciais são frequentemente afetadas e partes individuais do corpo podem ter problemas associados a elas. A estenose espinhal, infecção de ouvido e hidrocefalia são comuns. No caso de disostose espinhal, apresenta-se um tronco pequeno, com membros de tamanho médio.

O nanismo proporcional é marcado por um torso curto com membros curtos, [4] levando a uma altura significativamente abaixo da média. Pode haver longos períodos sem nenhum crescimento significativo. O desenvolvimento sexual costuma ser atrasado ou prejudicado na idade adulta. Este tipo de nanismo é causado por um distúrbio endócrino e não por uma displasia esquelética.

Os efeitos físicos dos ossos malformados variam de acordo com a doença específica. Muitos envolvem dores nas articulações causadas por alinhamento ósseo anormal ou por compressão nervosa. [13] Doença articular degenerativa precoce, lordose ou escoliose exagerada e constrição da medula espinhal ou raízes nervosas podem causar dor e incapacidade. [18] O tamanho torácico reduzido pode restringir o crescimento pulmonar e reduzir a função pulmonar. Algumas formas de nanismo estão associadas à função desordenada de outros órgãos, como o cérebro ou o fígado, às vezes com gravidade suficiente para ser mais uma deficiência do que o crescimento ósseo incomum. [19] [20]

Os efeitos mentais também variam de acordo com a síndrome subjacente específica. Na maioria dos casos de displasia esquelética, como a acondroplasia, a função mental não é prejudicada. [4] No entanto, existem síndromes que podem afetar a estrutura craniana e o crescimento do cérebro, prejudicando gravemente a capacidade mental. A menos que o cérebro seja diretamente afetado pelo distúrbio subjacente, há pouca ou nenhuma chance de deficiência mental que pode ser atribuída ao nanismo. [21]

As limitações psicossociais da sociedade podem ser mais incapacitantes do que os sintomas físicos, especialmente na infância e adolescência, mas as pessoas com nanismo variam muito no grau em que a participação social e a saúde emocional são afetadas.

    O preconceito social contra a falta extrema pode reduzir as oportunidades sociais e conjugais. [22] [23]

O nanismo pode resultar de muitas condições médicas, cada uma com seus próprios sintomas e causas distintos. A falta extrema em humanos com partes do corpo proporcionais geralmente tem uma causa hormonal, como a deficiência de hormônio do crescimento, uma vez chamada nanismo pituitário. [13] [17] A acondroplasia é responsável pela maioria dos casos de nanismo humano, seguida por displasia espondiloepifisária e displasia diastrófica. [8]

Edição de acondroplasia

A forma mais reconhecível e comum de nanismo em humanos é a acondroplasia, que responde por 70% dos casos de nanismo e ocorre em 4 a 15 entre 100.000 nascidos vivos. [7]

Produz membros curtos rizomélicos, aumento da curvatura da coluna e distorção do crescimento do crânio. Na acondroplasia, os membros do corpo são proporcionalmente mais curtos que o tronco (área abdominal), com uma cabeça maior que a média e traços faciais característicos. A acondroplasia é uma doença autossômica dominante causada pela presença de um alelo defeituoso no genoma. Se um par de alelos de acondroplasia estiver presente, o resultado é fatal. A acondroplasia é uma mutação no receptor 3 do fator de crescimento de fibroblastos. [25] No contexto da acondroplasia, essa mutação faz com que o FGFR3 se torne constitutivamente ativo, inibindo o crescimento ósseo. [26]

Deficiência de hormônio do crescimento Editar

A deficiência de hormônio do crescimento (GHD) é uma condição médica em que o corpo produz hormônio do crescimento insuficiente. O hormônio do crescimento, também chamado de somatotropina, é um hormônio polipeptídeo que estimula o crescimento e a reprodução celular. Se esse hormônio estiver em falta, o crescimento atrofiado ou mesmo interrompido pode se tornar aparente. Crianças com esse transtorno podem crescer lentamente e a puberdade pode demorar vários anos ou indefinidamente. A deficiência de hormônio do crescimento não tem uma causa única definida. Pode ser causada por mutações de genes específicos, danos à glândula pituitária, síndrome de Turner, má nutrição [27] ou até estresse (levando ao nanismo psicogênico). A síndrome de Laron (insensibilidade ao hormônio do crescimento) é outra causa. Aqueles com problemas de hormônio do crescimento tendem a ser proporcionais.

Outra edição

Outras causas de nanismo são displasia congênita espondiloepifisária, displasia diastrófica, pseudoacondroplasia, hipocondroplasia, síndrome de Noonan, nanismo primordial, síndrome de Cockayne, síndrome de Turner, osteogênese imperfeita (OI) e hipotireoidismo. Grave encurtamento com distorção esquelética também ocorre em várias das Mucopolissacaridoses e outros distúrbios de armazenamento. [28] O hipogonadismo hipogonadotrópico pode causar nanismo proporcional, embora temporário. O nanismo desproporcional de NPR2 foi descoberto recentemente e é causado por um gene mutante. [29]

Doenças crônicas sérias podem produzir nanismo como efeito colateral. Condições ambientais adversas, como desnutrição, também podem produzir nanismo. Esses tipos de nanismo são consequências indiretas da condição geralmente insalubre ou desnutrida do indivíduo, e não de alguma doença específica. O nanismo geralmente assume a forma de baixa estatura simples, sem quaisquer deformidades, levando assim ao nanismo proporcional. Em sociedades onde a nutrição deficiente é generalizada, a altura média da população pode ser reduzida abaixo de seu potencial genético pela falta de nutrição adequada. Às vezes, não há uma causa definitiva para a baixa estatura. [ citação necessária ]

O nanismo é freqüentemente diagnosticado na infância com base em sintomas visíveis. Um exame físico geralmente pode ser suficiente para diagnosticar certos tipos de nanismo, mas o teste genético e o diagnóstico por imagem podem ser usados ​​para determinar a condição exata. [30] Na juventude de uma pessoa, os gráficos de crescimento que rastreiam a altura podem ser usados ​​para diagnosticar formas sutis de nanismo que não têm outras características físicas marcantes. [8]

A baixa estatura ou o crescimento atrofiado durante a juventude geralmente é o que leva a doença ao atendimento médico. A displasia esquelética é geralmente suspeitada por causa de características físicas óbvias (por exemplo, configuração incomum do rosto ou formato do crânio), por causa de um pai obviamente afetado, ou porque as medidas do corpo (envergadura do braço, proporção do segmento superior para inferior) indicam desproporção. [30] Radiografias ósseas costumam ser a chave para o diagnóstico de uma displasia esquelética específica, mas não são a única ferramenta diagnóstica. A maioria das crianças com suspeita de displasias esqueléticas é encaminhada a uma clínica de genética para confirmação diagnóstica e aconselhamento genético. Desde cerca do ano 2000, os testes genéticos para alguns dos distúrbios específicos tornaram-se disponíveis. [31]

Durante uma avaliação médica inicial de encurtamento, a ausência de desproporção e outras pistas listadas acima geralmente indicam outras causas além das displasias ósseas.

Edição de Classificação

Em homens e mulheres, o único requisito para ser considerado um anão é ter uma altura de adulto inferior a 147 cm (4 pés e 10 polegadas) e quase sempre é subclassificado com relação à condição subjacente que é a causa da baixa estatura. O nanismo é geralmente causado por uma variante genética. A acondroplasia é causada por uma mutação no cromossomo 4. Se o nanismo for causado por um distúrbio médico, a pessoa é referida pelo distúrbio diagnosticado subjacente. Os distúrbios que causam nanismo são frequentemente classificados por proporcionalidade. O nanismo desproporcional descreve distúrbios que causam proporções incomuns das partes do corpo, enquanto o nanismo proporcional resulta em um retardo de crescimento geralmente uniforme do corpo.

Os transtornos que causam nanismo podem ser classificados de acordo com um de centenas de nomes, que geralmente são permutações das seguintes raízes:

  • localização
      = raiz, ou seja, ossos da parte superior do braço ou da coxa
  • mesomélico = meio, ou seja, ossos do antebraço ou perna
  • acromélico = extremidade, ou seja, ossos das mãos e pés.
  • micromélico = membros inteiros são encurtados
    • condro = de cartilagem
    • osteo = de osso
    • espondilo = das vértebras
    • plasia = forma
    • troféu = crescimento

    Os exemplos incluem acondroplasia e condrodistrofia.

    Muitos tipos de nanismo são atualmente impossíveis de prevenir porque são geneticamente causados. Condições genéticas que causam nanismo podem ser identificadas com testes genéticos, por meio da triagem de variações específicas que resultam na doença. No entanto, devido ao número de causas do nanismo, pode ser impossível determinar definitivamente se uma criança nascerá com nanismo.

    O nanismo resultante de desnutrição ou de uma anormalidade hormonal pode ser tratado com uma dieta adequada ou terapia hormonal. A deficiência de hormônio do crescimento pode ser remediada por meio de injeções de hormônio do crescimento humano (HGH) durante o início da vida. [32]

    As mutações genéticas da maioria das formas de nanismo causadas por displasia óssea ainda não podem ser alteradas, então as intervenções terapêuticas são normalmente destinadas a prevenir ou reduzir a dor ou deficiência física, aumentar a altura adulta ou mitigar tensões psicossociais e melhorar a adaptação social. [10]

    As formas de nanismo associadas ao sistema endócrino podem ser tratadas com terapia hormonal. Se a causa for hipossecreção pré-púbere do hormônio do crescimento, o hormônio do crescimento suplementar pode corrigir a anormalidade. Se o próprio receptor do hormônio do crescimento for afetado, a condição pode ser mais difícil de tratar. O hipotireoidismo é outra causa possível de nanismo, que pode ser tratada com terapia hormonal. As injeções de hormônio tireoidiano podem atenuar os efeitos da doença, mas a falta de proporção pode ser permanente.

    A dor e a incapacidade podem ser amenizadas por fisioterapia, aparelhos ortopédicos ou outros dispositivos ortopédicos, ou por procedimentos cirúrgicos. [10] As únicas intervenções simples que aumentam a altura percebida do adulto são os aprimoramentos do vestido, como sapatilhas ou penteado. O hormônio do crescimento raramente é usado para encurtamento causado por displasias ósseas, uma vez que o benefício da altura é normalmente pequeno (menos de 5 cm [2 pol]) e o custo alto. [9] O meio mais eficaz de aumentar a altura do adulto em vários centímetros é a distração osteogênica, embora a disponibilidade seja limitada e o custo seja alto em termos de dinheiro, desconforto e interrupção da vida. A maioria das pessoas com nanismo não escolhe essa opção, e ela permanece controversa. [13] Para outros tipos de nanismo, o tratamento cirúrgico não é possível.

    Terminologia Editar

    O termo apropriado para descrever uma pessoa de estatura particularmente baixa (ou com a condição genética de acondroplasia) tem sido historicamente ambíguo e desenvolveu-se eufemisticamente nos últimos séculos.

    O substantivo anão origina-se do inglês antigo dweorg, originalmente referindo-se a um ser da mitologia germânica - um anão - que mora nas montanhas e na terra e está associado à sabedoria, forja, mineração e artesanato. A etimologia da palavra anão é contestado, e os estudiosos propuseram teorias variadas sobre as origens do ser, incluindo que os anões podem ter se originado como espíritos da natureza ou como seres associados à morte, ou como uma mistura de conceitos. As etimologias concorrentes incluem uma base na raiz indo-européia * dheur- (significando 'dano'), a raiz indo-européia * dhreugh (de onde o alemão moderno Traum 'sonho' e Trug 'engano'), e comparações foram feitas com o velho índio dhvaras (um tipo de ser demoníaco). O ser pode não ter ganhado associações com pequena estatura até um período posterior. [33]

    Os termos "anão", "pessoa pequena", "LP" e "pessoa de baixa estatura" agora são geralmente considerados aceitáveis ​​pela maioria das pessoas afetadas por esses distúrbios. [17] No entanto, o plural "anões" em oposição a "anões" é geralmente preferido no contexto médico, possivelmente porque o plural "anões" foi popularizado pelo autor J. R. R. Tolkien, descrevendo uma raça de personagens em seu O senhor dos Anéis livros que lembram anões nórdicos. [34]

    "Midget", cuja etimologia indica um "minúsculo inseto picador", [35] ganhou destaque em meados do século 19 depois que Harriet Beecher Stowe o usou em seus romances Memórias ensolaradas de terras estrangeiras e Oldtown Folks onde ela descreveu crianças e um homem extremamente baixo, respectivamente. [17] Mais tarde, algumas pessoas de baixa estatura consideraram a palavra ofensiva porque era o termo descritivo aplicado aos anões de P. T. Barnum usados ​​para diversão pública durante a era do show de horrores. [13] [36] Também não é considerado preciso, pois não é um termo médico ou diagnóstico, embora às vezes seja usado como uma gíria para descrever aqueles que são particularmente baixos, independentemente de terem nanismo ou não. [37]

    Dwarf sports Edit

    Os anões são apoiados para competir no esporte por uma série de organizações nacionais e internacionais.

    A Dwarf Athletic Association of America e a Dwarf Sports Association UK oferecem oportunidades para os anões competirem nacional e internacionalmente nas Américas e na Europa, respectivamente.

    A Dwarf Sports Association UK organiza entre 5 e 20 eventos por mês para atletas com condições restritas de crescimento no Reino Unido. [38]

    Por exemplo, natação e ciclismo são frequentemente recomendados para pessoas com displasias esqueléticas, uma vez que essas atividades colocam pressão mínima na coluna. [39]

    Desde o início, a luta livre profissional teve o envolvimento de atletas anões. "Midget wrestling" teve seu apogeu nos anos 1950-70, quando lutadores como Little Beaver, Lord Littlebrook e Fuzzy Cupid viajaram pela América do Norte, e Sky Low Low foi o primeiro detentor do Campeonato Mundial de Midget da National Wrestling Alliance. Nas décadas seguintes, mais lutadores se tornaram proeminentes na América do Norte, incluindo lutadores estrangeiros como o pequeno Tóquio do Japão. Embora o termo seja visto por alguns como pejorativo, muitos lutadores anões antigos e atuais, incluindo Hornswoggle, disseram que se orgulham do termo devido à sua história na indústria e sua comercialização. [ citação necessária ]

    Editar representações de arte e mídia

    Na arte, na literatura e no cinema, os anões raramente são descritos como pessoas comuns que são muito baixas, mas sim como uma espécie à parte. Romancistas, artistas e cineastas podem atribuir significado moral ou estético especial à sua "separação" ou disformidade.

    As representações artísticas do nanismo podem ser encontradas em vasos gregos e outros artefatos antigos, incluindo a arte egípcia antiga na qual os anões provavelmente foram vistos como uma manifestação divina, com registros indicando que eles poderiam alcançar altas posições na sociedade. [40] [41]

    O texto hindu do Bhagavat Purana dedica nove capítulos às aventuras de Vamana, um avatar anão do Senhor Vishnu.

    As representações do nanismo também são encontradas em pinturas europeias e em muitas ilustrações. Muitas pinturas europeias (especialmente espanholas) dos séculos 16 a 19 retratam anões sozinhos ou com outras pessoas. No Talmud, é dito que o segundo filho do faraó egípcio da Bíblia era um anão. [42] Estudos recentes sugeriram que os antigos egípcios tinham os anões em alta estima. [43] Várias figuras mitológicas importantes da nação Wyandot da América do Norte são retratadas como anões. [44]

    Conforme a mídia popular se tornou mais difundida, o número de trabalhos retratando anões aumentou dramaticamente. O nanismo é retratado em muitos livros, filmes e séries de TV, como Salgueiro, O Velho Oeste Selvagem, O homem com a arma dourada (e depois parodiado em Austin Powers), As Viagens de Gulliver por Jonathan Swift, [45] O feiticeiro de Oz, Willy Wonka e a Fábrica de Chocolate, Papai Noel Mau, Um filho do circo, Gente pequena, grande mundo, O pequeno casal, Uma música de gelo e Fogo (e sua adaptação para a TV A Guerra dos Tronos), Seinfeld, O orador, Em bruges, O tambor de lata por Günter Grass, o breve reality show The Littlest Groom, e os filmes O Agente da Estação e Zero.

    A série de TV Animal Planet Pit Boss apresenta o ator anão Shorty Rossi e sua agência de talentos, "Shortywood Productions", que Rossi usa para financiar sua operação de resgate de pit bulls, "Shorty's Rescue". Os três funcionários em tempo integral de Rossi, apresentados na série, são todos pequenos e aspirantes a atores.

    Em setembro de 2014, a Creative Business House, junto com Donnons Leur Une Chance, criou o International Dwarf Fashion Show para aumentar a conscientização e aumentar a autoconfiança das pessoas que vivem com nanismo. [46]

    Uma série de reality shows na Lifetime, começando com Mulheres pequeninas: LA em 2014, teve como foco mostrar a vida de mulheres que vivem com nanismo em várias cidades dos Estados Unidos.


    Uma curta história de big data

    A história de como os dados se tornaram grandes começa muitos anos antes do burburinho atual em torno do big data. Já setenta anos atrás, encontramos as primeiras tentativas de quantificar a taxa de crescimento no volume de dados ou o que é popularmente conhecido como "explosão de informação" (termo usado pela primeira vez em 1941, de acordo com o Dicionário de Inglês Oxford) A seguir estão os principais marcos na história do dimensionamento de volumes de dados, além de outros “primeiros” na evolução da ideia de “big data” e observações relativas à explosão de dados ou informações.

    Última atualização: 21 de dezembro de 2013

    1944 Fremont Rider, bibliotecário da Wesleyan University, publica The Scholar and the Future of the Research Library. Ele estima que as bibliotecas universitárias americanas dobraram de tamanho a cada dezesseis anos. Dada esta taxa de crescimento, Rider especula que a Biblioteca de Yale em 2040 terá “aproximadamente 200 milhões de volumes, que ocuparão mais de 6.000 milhas de prateleiras ... [exigindo] uma equipe de catalogação de mais de seis mil pessoas”.

    1961 Derek Price publica Ciência desde a Babilônia, no qual ele mapeia o crescimento do conhecimento científico observando o crescimento do número de periódicos e artigos científicos. Ele conclui que o número de novos periódicos cresceu exponencialmente em vez de linearmente, dobrando a cada quinze anos e aumentando por um fator de dez a cada meio século. Price chama isso de "lei do aumento exponencial", explicando que "cada avanço [científico] gera uma nova série de avanços a uma taxa de natalidade razoavelmente constante, de modo que o número de nascimentos é estritamente proporcional ao tamanho da população de descobertas em a qualquer momento. ”

    Novembro de 1967 B. A. Marron e P. A. D. de Maine publicam "Compressão automática de dados" no Comunicações do ACM, afirmando que "A‘ explosão de informações ’observada nos últimos anos torna essencial que os requisitos de armazenamento para todas as informações sejam mantidos em um nível mínimo." O documento descreve "um compressor de três partes totalmente automático e rápido que pode ser usado com 'qualquer' corpo de informações para reduzir significativamente os requisitos de armazenamento externo lentos e aumentar a taxa de transmissão de informações por meio de um computador."

    1971 Arthur Miller escreve em The Assault on Privacy que "Muitos manipuladores de informações parecem medir um homem pelo número de bits de capacidade de armazenamento que seu dossiê irá ocupar."

    1975 O Ministério dos Correios e Telecomunicações do Japão começa a conduzir o Censo do Fluxo de Informações, rastreando o volume de informações que circulam no Japão (a ideia foi sugerida pela primeira vez em um artigo de 1969). O censo apresenta “quantidade de palavras” como a unidade de medida unificadora em todas as mídias. O censo de 1975 já descobriu que a oferta de informação está aumentando muito mais rápido do que o consumo de informação e em 1978 relata que “a demanda por informação fornecida pelos meios de comunicação, que são comunicação unilateral, estagnou, e a demanda por informação fornecida por pessoal os meios de comunicação, que se caracterizam por comunicações bidirecionais, aumentaram drasticamente…. Nossa sociedade está se movendo em direção a um novo estágio ... em que mais prioridade é colocada em informações segmentadas e mais detalhadas para atender às necessidades individuais, em vez de informações convencionais reproduzidas em massa. ” [Traduzido em Alistair D. Duff 2000 ver também Martin Hilbert 2012 (PDF)]

    Abril de 1980 I A. Tjomsland dá uma palestra intitulada “Para onde vamos a partir daqui?” no Quarto Simpósio IEEE sobre Sistemas de Armazenamento em Massa, no qual ele diz "Aqueles associados a dispositivos de armazenamento há muito tempo perceberam que a Primeira Lei de Parkinson pode ser parafraseada para descrever nossa indústria -‘ Os dados se expandem para preencher o espaço disponível ’…. Acredito que grandes quantidades de dados estão sendo retidas porque os usuários não têm como identificar dados obsoletos. As penalidades por armazenar dados obsoletos são menos aparentes do que as penalidades por descartar dados potencialmente úteis. ”

    1981 O Escritório Central de Estatísticas da Hungria inicia um projeto de pesquisa para contabilizar as indústrias de informação do país, incluindo a medição do volume de informações em bits. A pesquisa continua até hoje. Em 1993, Istvan Dienes, cientista-chefe do Escritório Central de Estatísticas da Hungria, compilou um manual para um sistema padrão de contas de informações nacionais. [Ver Istvan Dienes 1994 (PDF) e Martin Hilbert 2012 (PDF)]

    Agosto de 1983 Ithiel de Sola Pool publica “Tracking the Flow of Information” em Ciência. Observando as tendências de crescimento em 17 grandes meios de comunicação de 1960 a 1977, ele conclui que "as palavras disponibilizadas aos americanos (com mais de 10 anos) por meio dessa mídia cresceram a uma taxa de 8,9 por cento ao ano ... palavras realmente atendidas nesses meios de comunicação cresceu apenas 2,9 por cento ao ano…. No período de observação, muito do crescimento no fluxo de informações deveu-se ao crescimento da radiodifusão ... Mas no final daquele período [1977] a situação estava mudando: a mídia ponto a ponto crescia mais rápido do que a radiodifusão. ” Pool, Inose, Takasaki e Hurwitz seguiram em 1984 com Fluxos de comunicação: um censo nos Estados Unidos e no Japão, um livro que compara os volumes de informações produzidos nos Estados Unidos e no Japão.

    Julho de 1986 Hal B. Becker publica “Os usuários podem realmente absorver dados nas taxas de hoje? Amanhã? ” em Comunicações de Dados. Becker estima que “a densidade de recodificação alcançada por Gutenberg foi de aproximadamente 500 símbolos (caracteres) por polegada cúbica - 500 vezes a densidade de [4.000 a.C. Tabuletas de argila suméria. No ano 2000, a memória de acesso aleatório do semicondutor deve estar armazenando 1,25X10 ^ 11 bytes por polegada cúbica. ”

    Setembro de 1990 Peter J. Denning publica "Saving All the Bits" (PDF) em Cientista americano. Diz Denning: "O imperativo [para os cientistas] de salvar todos os bits nos força a uma situação impossível: a taxa e o volume do fluxo de informações sobrecarregam nossas redes, dispositivos de armazenamento e sistemas de recuperação, bem como a capacidade humana de compreensão. Quais máquinas podemos construir que irá monitorar o fluxo de dados de um instrumento, ou vasculhar um banco de dados de gravações, e propor para nós um resumo estatístico do que está lá. é possível construir máquinas que podem reconhecer ou prever padrões em dados sem entender o significado dos padrões. Essas máquinas podem, eventualmente, ser rápidas o suficiente para lidar com grandes fluxos de dados em tempo real. Com essas máquinas, podemos reduzir significativamente o número de bits que devem ser salvos e podemos reduzir o risco de perder descobertas latentes por enterramento em um banco de dados imenso. As mesmas máquinas também podem vasculhar bancos de dados existentes procurando padrões e formando descrições de classe para os bits que já salvamos. "

    1996 O armazenamento digital torna-se mais econômico para armazenar dados do que o papel, de acordo com R.J.T. Morris e B.J. Truskowski, em “The Evolution of Storage Systems,” IBM Systems Journal, 1 ° de julho de 2003.

    Outubro de 1997 Michael Cox e David Ellsworth publicam “Paginação por demanda controlada por aplicativo para visualização out-of-core” nos Proceedings of the IEEE 8th conference on Visualization. Eles começam o artigo com “A visualização oferece um desafio interessante para os sistemas de computador: os conjuntos de dados geralmente são muito grandes, sobrecarregando as capacidades da memória principal, do disco local e até do disco remoto. Chamamos isso de problema de big data. Quando os conjuntos de dados não cabem na memória principal (no núcleo), ou quando eles não cabem nem mesmo no disco local, a solução mais comum é adquirir mais recursos. ” É o primeiro artigo na biblioteca digital ACM a usar o termo "big data".

    1997 Michael Lesk publica "Quanta informação existe no mundo?" Lesk conclui que “Pode haver alguns milhares de petabytes de informação ao todo e a produção de fita e disco atingirá esse nível no ano 2000. Portanto, em apenas alguns anos, (a) seremos capazes [de] salvar tudo - nenhuma informação terá que ser descartada, e (b) a informação típica nunca será vista por um ser humano. ”

    Abril de 1998 John R. Mashey, Cientista-chefe da SGI, apresenta em uma reunião da USENIX um artigo intitulado “Big Data ... and the Next Wave of Infrastress.”

    Outubro de 1998 KG. Coffman e Andrew Odlyzko publicam "The Size and Growth Rate of the Internet". They conclude that “the growth rate of traffic on the public Internet, while lower than is often cited, is still about 100% per year, much higher than for traffic on other networks. Hence, if present growth trends continue, data traffic in the U. S. will overtake voice traffic around the year 2002 and will be dominated by the Internet.” Odlyzko later established the Minnesota Internet Traffic Studies (MINTS), tracking the growth in Internet traffic from 2002 to 2009.

    August 1999 Steve Bryson, David Kenwright, Michael Cox, David Ellsworth, and Robert Haimes publish “Visually exploring gigabyte data sets in real time” in the Communications of the ACM. It is the first CACM article to use the term “Big Data” (the title of one of the article’s sections is “Big Data for Scientific Visualization”). The article opens with the following statement: “Very powerful computers are a blessing to many fields of inquiry. They are also a curse fast computations spew out massive amounts of data. Where megabyte data sets were once considered large, we now find data sets from individual simulations in the 300GB range. But understanding the data resulting from high-end computations is a significant endeavor. As more than one scientist has put it, it is just plain difficult to look at all the numbers. And as Richard W. Hamming, mathematician and pioneer computer scientist, pointed out, the purpose of computing is insight, not numbers.”

    October 1999 Bryson, Kenwright and Haimes join David Banks, Robert van Liere, and Sam Uselton on a panel titled “Automation or interaction: what’s best for big data?” at the IEEE 1999 conference on Visualization.

    October 2000 Peter Lyman and Hal R. Varian at UC Berkeley publish “How Much Information?” It is the first comprehensive study to quantify, in computer storage terms, the total amount of new and original information (not counting copies) created in the world annually and stored in four physical media: paper, film, optical (CDs and DVDs), and magnetic. The study finds that in 1999, the world produced about 1.5 exabytes of unique information, or about 250 megabytes for every man, woman, and child on earth. It also finds that “a vast amount of unique information is created and stored by individuals” (what it calls the “democratization of data”) and that “not only is digital information production the largest in total, it is also the most rapidly growing.” Calling this finding “dominance of digital,” Lyman and Varian state that “even today, most textual information is ‘born digital,’ and within a few years this will be true for images as well.” A similar study conducted in 2003 by the same researchers found that the world produced about 5 exabytes of new information in 2002 and that 92% of the new information was stored on magnetic media, mostly in hard disks.

    November 2000 Francis X. Diebold presents to the Eighth World Congress of the Econometric Society a paper titled “’Big Data’ Dynamic Factor Models for Macroeconomic Measurement and Forecasting (PDF),” in which he states “Recently, much good science, whether physical, biological, or social, has been forced to confront—and has often benefited from—the “Big Data” phenomenon. Big Data refers to the explosion in the quantity (and sometimes, quality) of available and potentially relevant data, largely the result of recent and unprecedented advancements in data recording and storage technology.”

    February 2001 Doug Laney, an analyst with the Meta Group, publishes a research note titled “3D Data Management: Controlling Data Volume, Velocity, and Variety.” A decade later, the “3Vs” have become the generally-accepted three defining dimensions of big data, although the term itself does not appear in Laney’s note.

    September 2005 Tim O’Reilly publishes “What is Web 2.0” in which he asserts that “data is the next Intel inside.” O’Reilly: “As Hal Varian remarked in a personal conversation last year, ‘SQL is the new HTML.’ Database management is a core competency of Web 2.0 companies, so much so that we have sometimes referred to these applications as ‘infoware’ rather than merely software.”

    March 2007 John F. Gantz, David Reinsel and other researchers at IDC release a white paper titled “The Expanding Digital Universe: A Forecast of Worldwide Information Growth through 2010 (PDF).” It is the first study to estimate and forecast the amount of digital data created and replicated each year. IDC estimates that in 2006, the world created 161 exabytes of data and forecasts that between 2006 and 2010, the information added annually to the digital universe will increase more than six fold to 988 exabytes, or doubling every 18 months. According to the 2010 (PDF) and 2012 (PDF) releases of the same study, the amount of digital data created annually surpassed this forecast, reaching 1227 exabytes in 2010, and growing to 2837 exabytes in 2012.

    January 2008 Bret Swanson and George Gilder publish “Estimating the Exaflood (PDF),” in which they project that U.S. IP traffic could reach one zettabyte by 2015 and that the U.S. Internet of 2015 will be at least 50 times larger than it was in 2006.

    June 2008 Cisco releases the “Cisco Visual Networking Index – Forecast and Methodology, 2007–2012 (PDF)” part of an “ongoing initiative to track and forecast the impact of visual networking applications.” It predicts that “IP traffic will nearly double every two years through 2012” and that it will reach half a zettabyte in 2012. The forecast held well, as Cisco’s latest report (May 30, 2012) estimates IP traffic in 2012 at just over half a zettabyte and notes it “has increased eightfold over the past 5 years.”

    September 2008 A special issue of Natureza on Big Data "examines what big data sets mean for contemporary science."

    December 2008 Randal E. Bryant, Randy H. Katz, and Edward D. Lazowska publish “Big-Data Computing: Creating Revolutionary Breakthroughs in Commerce, Science and Society (PDF).” They write: “Just as search engines have transformed how we access information, other forms of big-data computing can and will transform the activities of companies, scientific researchers, medical practitioners, and our nation’s defense and intelligence operations…. Big-data computing is perhaps the biggest innovation in computing in the last decade. We have only begun to see its potential to collect, organize, and process data in all walks of life. A modest investment by the federal government could greatly accelerate its development and deployment.”

    December 2009 Roger E. Bohn and James E. Short publish “How Much Information? 2009 Report on American Consumers.” The study finds that in 2008, “Americans consumed information for about 1.3 trillion hours, an average of almost 12 hours per day. Consumption totaled 3.6 Zettabytes and 10,845 trillion words, corresponding to 100,500 words and 34 gigabytes for an average person on an average day.” Bohn, Short, and Chattanya Baru follow this up in January 2011 with “How Much Information? 2010 Report on Enterprise Server Information,” in which they estimate that in 2008, “the world’s servers processed 9.57 Zettabytes of information, almost 10 to the 22nd power, or ten million million gigabytes. This was 12 gigabytes of information daily for the average worker, or about 3 terabytes of information per worker per year. The world’s companies on average processed 63 terabytes of information annually.”

    February 2010 Kenneth Cukier publishes in The Economist a Special Report titled, “Data, data everywhere.” Writes Cukier: “…the world contains an unimaginably vast amount of digital information which is getting ever vaster more rapidly… The effect is being felt everywhere, from business to science, from governments to the arts. Scientists and computer engineers have coined a new term for the phenomenon: ‘big data.’”

    February 2011 Martin Hilbert and Priscila Lopez publish “The World’s Technological Capacity to Store, Communicate, and Compute Information” in Science. They estimate that the world’s information storage capacity grew at a compound annual growth rate of 25% per year between 1986 and 2007. They also estimate that in 1986, 99.2% of all storage capacity was analog, but in 2007, 94% of storage capacity was digital, a complete reversal of roles (in 2002, digital information storage surpassed non-digital for the first time).

    May 2011 James Manyika, Michael Chui, Brad Brown, Jacques Bughin, Richard Dobbs, Charles Roxburgh, and Angela Hung Byers of the McKinsey Global Institute publish “Big data: The next frontier for innovation, competition, and productivity.” They estimate that “by 2009, nearly all sectors in the US economy had at least an average of 200 terabytes of stored data (twice the size of US retailer Wal-Mart’s data warehouse in 1999) per company with more than 1,000 employees” and that the securities and investment services sector leads in terms of stored data per firm. In total, the study estimates that 7.4 exabytes of new data were stored by enterprises and 6.8 exabytes by consumers in 2010.

    April 2012 O International Journal of Communications publishes a Special Section titled “Info Capacity” on the methodologies and findings of various studies measuring the volume of information. In “Tracking the flow of information into the home (PDF),” Neuman, Park, and Panek (following the methodology used by Japan’s MPT and Pool above) estimate that the total media supply to U.S. homes has risen from around 50,000 minutes per day in 1960 to close to 900,000 in 2005. And looking at the ratio of supply to demand in 2005, they estimate that people in the U.S. are “approaching a thousand minutes of mediated content available for every minute available for consumption.” In “International Production and Dissemination of Information (PDF),” Bounie and Gille (following Lyman and Varian above) estimate that the world produced 14.7 exabytes of new information in 2008, nearly triple the volume of information in 2003.

    May 2012 danah boyd and Kate Crawford publish “Critical Questions for Big Data” in Information, Communications, and Society. They define big data as “a cultural, technological, and scholarly phenomenon that rests on the interplay of: (1) Technology: maximizing computation power and algorithmic accuracy to gather, analyze, link, and compare large data sets. (2) Analysis: drawing on large data sets to identify patterns in order to make economic, social, technical, and legal claims. (3) Mythology: the widespread belief that large data sets offer a higher form of intelligence and knowledge that can generate insights that were previously impossible, with the aura of truth, objectivity, and accuracy.”

    An earlier version of this timeline was published on WhatsTheBigData.com

    Follow me on Twitter @GilPress or Facebook or Google+


    1.6.3.3: The very short history of the S and R

    At the end of the war, the Soviet Union was a closed society under the iron grip of Joseph Stalin.

    Few in the West had experience with the communist state and even fewer understood what motivated the Soviets. One man who had first hand knowledge was a Foreign Service officer, George F. Kennan. In 1946, while he was Chargé d’Affaires in Moscow, Kennan sent an 8,000-word telegram to the Department—the now-famous “long telegram”—on the aggressive nature of Stalin’s foreign policy. Kennan, writing as “Mr. X,” published an outline of his philosophy in the prestigious journal Foreign Affairs in 1947. His conclusion was that “the main element of any United States policy toward the Soviet Union must be that of a long-term patient but firm and vigilant containment of Russian expansive tendencies.” Containment provided a conceptual framework for a series of successful initiatives undertaken from 1947 to 1950 to blunt Soviet expansion.


    1.6.3.3: The very short history of the S and R

    President Nixon pursued two important policies that both culminated in 1972. In February he visited Beijing, setting in motion normalization of relations with the People's Republic of China. In May, he traveled to the Soviet Union and signed agreements that contained the results of the first Strategic Arms Limitation Treaty talks (SALT I), and new negotiations were begun to extend further arms control and disarmament measures.

    These developments marked the beginning of a period of “détente” in line with a general tendency among Americans to favor a lower profile in world affairs after the Vietnam War, which finally ended in 1975 with the last withdrawal of U.S. personnel. While improvements in relations with the Soviet Union and the People’s Republic of China signaled a possible thaw in the Cold War, they did not lead to general improvement in the international climate. The international economy experienced considerable instability, leading to a significant modification of the international financial system in place since the end of World War II.

    During the Nixon Administration, international scientific, technological, and environmental issues grew in prominence. In October 1973, Congress passed legislation creating the Bureau of Oceans and International Environments and Scientific Affairs (OES), to handle environmental issues, weather, oceans, Antarctic affairs, atmosphere, fisheries, wildlife conservation, health, and population matters. The Department had difficulty filling the new Assistant Secretary position until January 1975, when the former Atomic Energy Commissioner, Dixie Lee Ray , took the job. However, she resigned six months later claiming that OES was not playing a significant policy role.

    Although Secretary Rogers still had broad responsibility for foreign policy, including Europe, the Middle East, Africa, Latin America, and international organizations, the Department of State resented its exclusion from key policy decisions, and the Secretary continually fought to make his views known.


    Definitions of terrorism

    Definitions of terrorism are usually complex and controversial, and, because of the inherent ferocity and violence of terrorism, the term in its popular usage has developed an intense stigma. It was first coined in the 1790s to refer to the terror used during the French Revolution by the revolutionaries against their opponents. The Jacobin party of Maximilien Robespierre carried out a Reign of Terror involving mass executions by the guillotine. Although terrorism in this usage implies an act of violence by a state against its domestic enemies, since the 20th century the term has been applied most frequently to violence aimed, either directly or indirectly, at governments in an effort to influence policy or topple an existing regime.

    Terrorism is not legally defined in all jurisdictions the statutes that do exist, however, generally share some common elements. Terrorism involves the use or threat of violence and seeks to create fear, not just within the direct victims but among a wide audience. The degree to which it relies on fear distinguishes terrorism from both conventional and guerrilla warfare. Although conventional military forces invariably engage in psychological warfare against the enemy, their principal means of victory is strength of arms. Similarly, guerrilla forces, which often rely on acts of terror and other forms of propaganda, aim at military victory and occasionally succeed (e.g., the Viet Cong in Vietnam and the Khmer Rouge in Cambodia). Terrorism proper is thus the calculated use of violence to generate fear, and thereby to achieve political goals, when direct military victory is not possible. This has led some social scientists to refer to guerrilla warfare as the “weapon of the weak” and terrorism as the “weapon of the weakest.”

    In order to attract and maintain the publicity necessary to generate widespread fear, terrorists must engage in increasingly dramatic, violent, and high-profile attacks. These have included hijackings, hostage takings, kidnappings, mass shootings, car bombings, and, frequently, suicide bombings. Although apparently random, the victims and locations of terrorist attacks often are carefully selected for their shock value. Schools, shopping centres, bus and train stations, and restaurants and nightclubs have been targeted both because they attract large crowds and because they are places with which members of the civilian population are familiar and in which they feel at ease. The goal of terrorism generally is to destroy the public’s sense of security in the places most familiar to them. Major targets sometimes also include buildings or other locations that are important economic or political symbols, such as embassies or military installations. The hope of the terrorist is that the sense of terror these acts engender will induce the population to pressure political leaders toward a specific political end.

    Some definitions treat all acts of terrorism, regardless of their political motivations, as simple criminal activity. For example, the U.S. Federal Bureau of Investigation (FBI) defines both international and domestic terrorism as involving “violent, criminal acts.” The element of criminality, however, is problematic, because it does not distinguish among different political and legal systems and thus cannot account for cases in which violent attacks against a government may be legitimate. A frequently mentioned example is the African National Congress (ANC) of South Africa, which committed violent actions against that country’s apartheid government but commanded broad sympathy throughout the world. Another example is the Resistance movement against the Nazi occupation of France during World War II.

    Since the 20th century, ideology and political opportunism have led a number of countries to engage in international terrorism, often under the guise of supporting movements of national liberation. (Hence, it became a common saying that “One man’s terrorist is another man’s freedom fighter.”) The distinction between terrorism and other forms of political violence became blurred—particularly as many guerrilla groups often employed terrorist tactics—and issues of jurisdiction and legality were similarly obscured.

    These problems have led some social scientists to adopt a definition of terrorism based not on criminality but on the fact that the victims of terrorist violence are most often innocent civilians. Even this definition is flexible, however, and on occasion it has been expanded to include various other factors, such as that terrorist acts are clandestine or surreptitious and that terrorist acts are intended to create an overwhelming sense of fear.

    In the late 20th century, the term ecoterrorism was used to describe acts of environmental destruction committed in order to further a political goal or as an act of war, such as the burning of Kuwaiti oil wells by the Iraqi army during the Persian Gulf War. The term also was applied to certain environmentally benign though criminal acts, such as the spiking of lumber trees, intended to disrupt or prevent activities allegedly harmful to the environment.


    "Lady Bess" series: 1976 to 1980

    Photos by Debra Taylor.

    Photos by Byron Holt.

    Former BS&R marketing manager Hugh Rushing writes, "The Lady Bess line was introduced to celebrate the [United States] bicentennial. Retailers were interested in glass lids, so the patterns and resulting diameter of the pans in that line were designed to fit standard available glass covers. Lady Bess also had wooden handles on the skillets and sauce pans. They were originally packaged as sets in a wooden crate. All very Early American. Later those patterns were used to make Con Brio, a short line with white porcelain handles which were sold mainly on the West Coast. This was also the first cast iron with a nonstick finish."

    The size number marked on the bottom of the Lady Bess series did not match the earlier sizes of 3 through 14 used in the Red Mountain and Century series. The Lady Bess size had a W next to the number, which indicated "width." A pan marked 8W was 8 inches in diameter – and this was much smaller than a Century or Red Mountain size 8 (10 5/8 inches diameter). This was unintentionally ironic, as the Lady Bess series was intended to imitate an "Early American" style cast iron pan – yet, it would not fit in a genuine antique cast iron stove.


    Referências

    Atkinson, R. C., & Shiffrin, R. M. (1968). Human memory: A proposed system and its control processes. In K. Spence (Ed.), The psychology of learning and motivation (Vol. 2). Oxford, England: Academic Press.

    Baddeley, A. D., Vallar, G., & Shallice, T. (1990). The development of the concept of working memory: Implications and contributions of neuropsychology. In G. Vallar & T. Shallice (Eds.), Neuropsychological impairments of short-term memory (pp. 54–73). New York, NY: Cambridge University Press.

    Bargh, J. A., Chen, M., & Burrows, L. (1996). Automaticity of social behavior: Direct effects of trait construct and stereotype activation on action. Journal of Personality & Social Psychology, 71, 230–244.

    Bridgeman, B., & Morgan, R. (1996). Success in college for students with discrepancies between performance on multiple-choice and essay tests. Journal of Educational Psychology, 88(2), 333–340.

    Cowan, N., Lichty, W., & Grove, T. R. (1990). Properties of memory for unattended spoken syllables. Journal of Experimental Psychology: Learning, Memory, and Cognition, 16(2), 258–268.

    Didierjean, A., & Marmèche, E. (2005). Anticipatory representation of visual basketball scenes by novice and expert players. Visual Cognition, 12(2), 265–283.

    Haist, F., Shimamura, A. P., & Squire, L. R. (1992). On the relationship between recall and recognition memory. Journal of Experimental Psychology: Learning, Memory, and Cognition, 18(4), 691–702.

    Miller, G. A. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological Review, 63(2), 81–97.

    Nelson, T. O. (1985). Ebbinghaus’s contribution to the measurement of retention: Savings during relearning. Journal of Experimental Psychology: Learning, Memory, and Cognition, 11(3), 472–478.

    Peterson, L., & Peterson, M. J. (1959). Short-term retention of individual verbal items. Journal of Experimental Psychology, 58(3), 193–198.

    Simon, H. A., & Chase, W. G. (1973). Skill in chess. American Scientist, 61(4), 394–403.

    Solomon, M. (1995). Mozart: A life. New York, NY: Harper Perennial.

    Sperling, G. (1960). The information available in brief visual presentation. Psychological Monographs, 74(11), 1–29.

    Unsworth, N., & Engle, R. W. (2007). On the division of short-term and working memory: An examination of simple and complex span and their relation to higher order abilities. Psychological Bulletin, 133(6), 1038–1066.

    Wang, Y., Liu, D., & Wang, Y. (2003). Discovering the capacity of human memory. Brain & Mind, 4(2), 189–198.


    Assista o vídeo: PTG PED 2018 - Parte 3 - História da Educação (Outubro 2021).