sexta-feira, 27 de abril de 2012

Memória Cache

Na área da computação, cache é um dispositivo de acesso rápido, interno a um sistema, que serve de intermediário entre um operador de um processo e o dispositivo de armazenamento ao qual esse operador acede. A vantagem principal na utilização de uma cache consiste em evitar o acesso ao dispositivo de armazenamento - que pode ser demorado -, armazenando os dados em meios de acesso mais rápidos.


Tipos de memória cache: L1, L2, L3,

Cache L1
Uma pequena porção de memória estática presente dentro do processador. Em alguns tipos de processador, como o Pentium 2, o L1 é dividido em dois níveis: dados e instruções. A partir do Intel 486, começou a se colocar a L1 no próprio chip. Geralmente tem entre 16KB e 128KB; hoje já encontramos processadores com até 16MB de cache.
Cache L2
Possuindo o Cache L1 um tamanho reduzido e não apresentando uma solução ideal, foi desenvolvido o cache L2, que contém muito mais memória que o cache L1. Ela é mais um caminho para que a informação requisitada não tenha que ser procurada na lenta memória principal. Alguns processadores colocam essa cache fora do processador, por questões econômicas, pois uma cache grande implica num custo grande, mas há exceções, como no Pentium II, por exemplo, cujas caches L1 e L2 estão no mesmo cartucho que está o processador.
A memória cache L2 é, sobretudo, um dos elementos essenciais para um bom rendimento do processador mesmo que tenha um clock baixo. Um exemplo prático é o caso do Intel Itanium 9152M que tem apenas 1.6 GHz de clock interno e ganha de longe do atual Intel Extreme, pelo fato de possuir uma memória cache de 24MB. Quanto mais alto é o clock do processador, mais este aquece e mais instável se torna.

Cache L3
Terceiro nível de cache de memória. Inicialmente utilizado pelo AMD K6-III utilizava o cache externo presente na placa-mãe como uma memória de cache adicional. Ainda é um tipo de cache raro devido a complexidade dos processadores atuais, com suas áreas chegando a milhões de transístores por micrómetros ou picómetros de área. Ela será muito útil, é possível a necessidade futura de níveis ainda mais elevados de cache, como L4 e assim por diante.

Memória Ram

Definir memória SRAM e DRAM

Memória SRAM é um tipo de memória de acesso aleatório que mantém os dados armazenados desde que seja mantida sua alimentação, não precisando que as células que armazenam os bits sejam refrescadas.

Memória DRAM é um tipo de memória RAM de acesso direto que armazena cada bit de dados num condensador ou Capacitor. O número de elétrons armazenados no condensador determina se o bit é considerado 1 ou 0. Como vai havendo fuga de elétrons do condensador, a informação acaba por se perder, a não ser que a carga seja atualizada periodicamente.

SRAM


É um tipo de memória RAM estática e possui as seguintes características:

  • Células de memória - Latches / flip-flops
  • Rápidas – tempos de acesso baixos para leitura e para escrita
  • Utilizadas tipicamente como memórias cache (associadas ao processador)

Rápidas – tempos de acesso baixos para leitura e para escrita
Utilizadas tipicamente como memórias cache (associadas ao processador)


DRAM

Células de memória:

Pares transistor-condensador, que conseguem manter o nível lógico armazenado durante curtos espaços de tempo

Necessitam por isso de ciclos de refrescamento periódicos para reposição dos níveis lógicos nos condensadores


Tipos de DRAM

SDRAM (Synchronous DRAM)
  • Síncronas com o relógio de sistema.

DDR-SDRAM (Double Data Rate SDRAM)
  • Reagem a ambos os flancos do sinal de relógio;
  • Muito utilizadas em PCs;
  • Evolução: DDR (2000) DDR-2 (2003) DDR-3 (2007).
RDRAM (Rambus DRAM)
  • Têm esta designação porque os módulos de memória estão ligadas em série num barramento (bus) próprio;
  • Eficientes em leituras e escritas por blocos;
  • Pouco utilizadas em PCs, usadas na Playstation 2 e Nintendo 64.

Endereçamento de memória

Célula básica de memória

A memória RAM usa capacitores ligados a circuitos combinacionais (transistores) para manter os valores 0 ou 1, um método relativamente barato. Já os registradores usam flip-flops, que são compostos apenas de circuitos lógicos e podem fazer o mesmo trabalho muito mais rápido.

Na engenharia da computação, usam-se portas lógicas para ilustrar esquemas de circuitos combinacionais (ou sequenciais). Um flip-flop simples (latch) pode ser facilmente representado por duas portas NOR ligadas entre si, de forma cruzada.

Processo de endereçamento de uma memória
No endereçamento de memória existem vários aspectos a referir e podemos também ver na imagem seguinte:

k linhas de endereço
n linhas de dados de entrada
Sinais de controlo

Leitura/Escrita
Enables
n linhas de dados de saída

sexta-feira, 20 de abril de 2012

Circuitos integrados TTL e CMOS

Circuitos integrados TTL

A Lógica Transistor-Transistor (Transistor-Transistor Logic ou simplesmente TTL) é uma classe de circuitos digitais construídos de transistores de junção bipolar (BJT), e resistores. Isso é chamado lógica transistor-transistor porque ocorrem ambas as funções porta lógica e de amplificação pelos transistores (em contraste com a RTL e a DTL). Isso é notável por ser uma família difundida de circuitos integrados (CI) usada por muitas aplicações como computadores, controle industrial, electrônica de consumo, sintetizadores etc. Por causa do grande uso desta família lógica, sinais de entrada e saída de equipamentos eletrônicos pode ser chamada entrada ou saída "TTL", significantemente compatível com os níveis de tensão usados.
Estes circuitos têm como principal característica a utilização de sinais de 5 volts para níveis lógicos altos. Seus circuitos integrados são constituídos basicamente de transístores, o que os torna pouco sensíveis à eletricidade estática.

Circuitos integrados CMOS

CMOS (pronuncia-se "Cí-Mós") é uma sigla para complementary metal-oxide-semiconductor, i.e., semicondutor metal-óxido complementar. É um tipo de tecnologia empregada na fabricação de circuitos integrados onde se incluem elementos de lógica digital (portas lógicas, flip-flops, contadores, decodificadores, etc.), microprocessadores, microcontroladores, memórias RAM, etc. O "complementary", em seu nome, vem do fato de que esta tecnologia recente utiliza os dois tipos de transistores MOSFET, o MOSFET canal N e o MOSFET canal P, de tal modo que um deles "complementa" o outro. A CMOS é hoje a tecnologia mais largamente usada na fabricação de CIs. As principais vantagens dos circuitos integrados CMOS são o baixíssimo consumo de energia (que leva à baixa dissipação de calor) e a possibilidade de alta densidade de integração, comparativamente com outras tecnologias como a TTL. Devido a tais características, circuitos CMOS são também largamente utilizados em calculadoras, relógios digitais, e outros dispositivos alimentados por pequenas baterias.

quinta-feira, 19 de abril de 2012

Arquitectura de Von Nermann e de Harvard


A Arquitetura de von Neumann (de John von Neumann)


É uma arquitetura de computador que se caracteriza pela possibilidade de uma máquina digital armazenar seus programas no mesmo espaço de memória que os dados, podendo assim manipular tais programas.

A máquina proposta por Von Neumann reúne os seguintes componentes: (i) uma memória, (ii) uma unidade aritmética e lógica (ALU), (iii) uma unidade central de processamento (CPU), composta por diversos registradores, e (iv) uma Unidade de Controle (CU), cuja função é a mesma da tabela de controle da Máquina de Turing universal: buscar um programa na memória, instrução por instrução, e executá-lo sobre os dados de entrada.
Cada um dos elementos apresentados é realizado à custa de componentes físicos independentes, cuja implementação tem variado ao longo do tempo, consoante a evolução das tecnologias de fabricação, desde os relés electromagnéticos, os tubos de vácuo (ou válvulas), até aos semicondutores, abrangendo os transistores e os circuitos electrónicos integrados, com média, alta ou muito alta densidade de integração (MSI - medium scale, LSI - large scale, ou VLSI - very large scale integration), medida em termos de milhões transistores por pastilha de silício.
As interacções entre os elementos exibem tempos típicos que também têm variado ao longo do tempo, consoante as tecnologias de fabricação. Actualmente, as CPUs processam instruções sob controlo de relógios cujos períodos típicos são da ordem de 1 nanosegundo, ou seja, 10 − 9 segundos. As memórias centrais têm tempos típicos de acesso da ordem da dezena de nanosegundos. As unidades de entrada e saída exibem tempos típicos extremamente variáveis, mas que são tipicamente muito superiores à escala do nanosegundo. Por exemplo, os discos duros exibem tempos da ordem do milisegundos (milésimo de segundo, 10 − 3). Outros dispositivos periféricos são inertes, a não ser que sejam activados por utilizadores humanos. Por exemplo, ao se fazer "copy and paste" nao se-percebe nada do que foi descrito acima, pois um teclado só envia informação para o computador após serem pressionada as devidas teclas. Assim, este dispositivo se comunica com a CPU eventualmente e, portanto, exibe tempos indeterminados.

John von Neumann

A Arquitetura de Harvard 

Baseia-se em um conceito mais recente que a de Von-Neumann, tendo vindo da necessidade de por o microcontrolador para trabalhar mais rápido. É uma arquitetura de computador que se distingue das outras por possuir duas memórias diferentes e independentes em termos de barramento e ligação ao processador. É utilizada nos microcontroladores PIC, tem como principal característica acessar a memória de dados separadamente da memória de programa.
Baseada também na separação de barramentos de dados das memórias onde estão as instruções de programa e das memórias de dados, permitindo que um processador possa acessar as duas simultaneamente, obtendo um desempenho melhor do que a da Arquitetura de von Neumann, pois pode buscar uma nova instrução enquanto executa outra.
A principal vantagem dessa arquitetura é que a leitura de instruções e de alguns tipos de operandos pode ser feita ao mesmo tempo em que a execução das instruções (tempo Tcy). Isso significa que o sistema fica todo o tempo executando instruções, o que acarreta um significativo ganho de velocidade. Enquanto uma instrução está sendo executada, a seguinte está sendo lida. Esse processo é conhecido como pipelining(canalização).
A arquitetura Havard também possui um repertório com menos instruções que a de Von-Neumann, e essas são executadas apenas num único ciclo de relógio.
Arquiteturas de Harvard são normalmente utilizadas em qualquer sistemas especializados ou para usos específicos. É utilizado em processamento de sinal digital especializados (DSP), normalmente por produtos de áudio e vídeo de transformação. Ele também é usado em muitos pequenos microcontroladores utilizados em aplicações eletrônicas, tais como máquinas RISCO Advanced (ARM) para produtos à base de muitos vendedores.
Os microcontroladores com arquitetura Havard são também conhecidos como "microcontroladores RISC" (Computador com Conjunto Reduzido de Instruções), e os microcontroladores com uma arquitetura Von-Neumann, de "microcontroladores CISC" (Computador com um Conjunto Complexo de Instruções).


quarta-feira, 18 de abril de 2012

Arquitectura de computadores

A Arquitetura de Computadores lida com o comportamento funcional de um sistema computacional tal como este é visto por um programador (como o tamanho de um tipo de dados, por exemplo, 32 bits representam um inteiro).


Organização de Computadores lida com relações estruturais que podem não ser visíveis para o programador (como a frequência do relógio ou o tamanho da memória física).


Existe um um conceito de níveis na arquitectura de computadores. A ideia básica é que existem vários níveis nos quais um computador pode ser considerado, desde o nível mais elevado, onde o utilizador corre os programas, até ao nível mais baixo, consistindo de transístores e ligações.

Função da North bridge 

Também conhecido como memory controller hub (MCH) em sistemas Intel (AMD, VIA, SiS e outros geralmente usam northbridge), é tradicionalmente um dos dois chips que constituem o chipset numa placa-mãe de PC, sendo o outro o southbridge. Separar o chipset em northbridge e southbridge é comum, embora existam instâncias raras em que ambos são combinados num único die quando a complexidade do design e os processos de fabricação o permitem.

Função da South bridge

Também conhecido como I/O Controller Hub em sistemas Intel (AMD, VIA, SiS e outros geralmente usam southbridge), é um chip que implementa as capacidades mais "lentas" da placa-mãe numa arquitetura de chipset northbridge/southbridge. O southbridge pode ser geralmente diferenciado do northbridge por não estar diretamente conectado à UCP. Em vez disso, o northbridge liga o southbridge à UCP.


Chipset
Um Chipset é o nome dado ao conjunto de chips (ou circuitos integrados) utilizado na placa-mãe e cuja função é realizar diversas funções de hardware, como controle dos barramentos (PCI, AGP e o antigo ISA), controle e acesso à memória, controle da interface IDE e USB, Timer, controle dos sinais de interrupção IRQ e DMA, entre outras.


FSB
Um front-side bus é uma interface de comunicação com o computador, muitas vezes usado em computadores durante a década de 1990 e 2000. Ele normalmente transporta dados entre a unidade de processamento central (CPU) e um hub controlador de memória, conhecidos como northbridge.

DMA
Acesso direto à memória ( DMA ) é uma característica dos modernos computadores que permite que certos subsistemas de hardware dentro do computador para acessar o sistema de memória , independentemente da unidade de processamento central (CPU).

quinta-feira, 12 de abril de 2012

Circuitos integrados

O que são os circuitos integrados?
Os circuitos integrados são circuitos electrónicos funcionais, constituídos por um conjunto de transístores, díodos, resistências e condensadores, fabricados num mesmo processo, sobre uma substância comum semicondutora de silício que se designa vulgarmente por chip.

Limitações dos C.I.

Limitação nos valores das resistências e condensadores a integrar.
Reduzida potência de dissipação.
Limitações nas tensões de funcionamento.
Impossibilidade de integrar num chip bobinas ou indutâncias (salvo se forem de valores muitíssimo pequenos).
Tipos de cápsulas do C.I.

Os principais tipos de cápsulas utilizadas para envolver e proteger os chips são basicamente quatro:

  • Cápsulas com dupla fila de pinos (DIL ou DIP – Dual In Line);
  • Cápsulas planas (Flat-pack);
  • Cápsulas metálicas TO-5 (cilíndricas);
  • Cápsulas especiais.

Enquanto as cápsulas TO-5 são de material metálico, as restantes podem utilizar materiais plásticos ou cerâmicos.

 Cápsula com dupla fila de pinos

Para os CI de baixa potência – DIL ou DIP.
As cápsulas de dupla fila de pinos são as mais utilizadas, podendo conter vários chips interligados.

Nos integrados de encapsulamento DIL a numeração dos terminais é feita a partir do terminal 1, vai por essa linha de terminais e volta pela outra.
Durante essa identificação dos terminais o CI deve ser sempre observado por cima.

Cápsula com quatro filas de pinos
QIL – Quad In Line
Para c.i. de média potência, por exemplo, amplificadores de áudio.
A principal razão da linha quádrupla de pinos é o de permitir um maior afastamento das respectivas “ilhas” de ligação no circuito impresso, de forma que pistas mais largas (portanto para correntes maiores) possam ser ligadas a tais “ilhas”.

Cápsula com linha única de pinos

SIL – Single In Line
Alguns integrados pré-amlificadores, e mesmo alguns amplificadores de certa potência, para áudio, apresentam esta configuração.

Cápsulas planas (Flat-pack)

As cápsulas planas têm reduzido volume e espessura e são formadas por terminais dispostos horizontalmente. Pelo facto de se disporem sobre o circuito impresso a sua instalação ocupa pouco espaço

Cápsulas metálicas TO-5

Têm um corpo cilíndrico metálico, com os terminais dispostos em linha circular, na sua base.
A contagem dos terminais inicia-se pela pequena marca, em sentido horário, com o componente visto por baixo.

Cápsulas especiais

As cápsulas especiais são as que dispõem de numerosos terminais para interligarem a enorme integração de componentes que determinados chips dispõem (por exemplo, CI contendo microprocessadores).

Supercondutores

Pesquisadores suíços criaram uma versão supercondutora de um transístor de efeito de campo, conhecido como FET (Field Effect Transistor), um dos principais elementos de toda a eletrônica digital.

A equipe do professor Andrea Caviglia cresceu um cristal individual contendo dois segmentos separados, cada um formado por um óxido metálico diferente - um segmento de titanato de estrôncio e o outro de aluminato de lantânio.

Na interface entre esses dois segmentos, os cientistas observaram uma camada de elétrons livres, capazes de fluir sem resistência, o que caracteriza um material supercondutor.

Agora eles descobriram como ligar e desligar esse comportamento supercondutor na interface do seu cristal por meio da aplicação de uma corrente elétrica. O resultado é a primeira versão de um transístor supercondutor.

Funcionamento do transístor

Um transístor convencional possui dois eletrodos de cada lado, chamados emissor e coletor. Acima desse canal emissor-coletor existe um outro eletrodo, chamado base, que funciona como se fosse uma torneira.

Quando a base está energizada, ela permite que a corrente flua entre o emissor e o coletor; quando a energia é desligada, cessa a passagem da corrente. É esse estado da corrente - circulando ou não - que é interpretado nos computadores como se sendo os 0s e 1s da linguagem binária.

Vantagens de um transístor supercondutor

Como os materiais de que os eletrodos dos transistores atuais são feitos não são condutores elétricos perfeitos, quando a corrente elétrica flui através deles uma grande se perde na forma de calor - certamente um dos maiores entraves atuais à fabricação de processadores mais velozes.

Com um transístor supercondutor, esse problema é definitivamente resolvido. É por isto que a pesquisa está chamando a atenção não apenas de outros cientistas que lidam na área, mas também da indústria.

Supercomputadores na classe dos petaflops

A pesquisa ainda está em seus primeiros passos. O comportamento supercondutor somente ocorre a temperaturas próximas ao zero absoluto, o que significa que um computador feito com esses transistores consumiria uma grande quantidade de energia para ser mantido em temperaturas criogênicas - o que talvez não seja um grande problema para os supercomputadores na classe dos petaflops, que já são grandes consumidores de energia.

Novas pesquisas poderão levar à descoberta de novos óxidos ou outros materiais que apresentem o comportamento supercondutor em temperaturas mais amenas.