Slide 1 de T.I

A Tecnologia da Informação (TI) pode ser definida como o conjunto de todas as atividades e soluções providas por recursos de computação que visam permitir a produção, armazenamento, transmissão, acesso e o uso das informações.

Slide 2 de T.I

Logitech lança novo teclado sem fio ‘all-in-one’ com touchpad acoplado

Slide 3 de T.I

Notebook com bateria solar promete autonomia de até 10 horas

Slide 4 de T.I

SanDisk lança cartão de memória mais rápido do mundo

Slide 5 de T.I

HP lança primeiro notebook do mundo com o sensor Leap Motion integrado

quinta-feira, 26 de setembro de 2013

PES 2014

PES 2014 é o novo game de futebol mais popular do país. Com mudanças significativas em sua jogabilidade e gráficos que impressionam ainda na atual geração de consoles, o jogo mostra que a Konami está investindo pesado para voltar a ser uma preferência mundial. O game chega ao Brasil no dia 24 de setembro. A versão de PS3 custará R$ 179 e a de Xbox 360 R$ 199. Confira:


Movimentação e controle da bola agradam
A jogabilidade da série sempre foi um quesito que dividiu opiniões. De um lado, fãs da franquia defendem com unhas e dentes a mecânica de PES, que mantém o estilo desde a Era de ouro, ainda em consoles 128 bits. Do outro, jogadores criticam a finalização e a movimentação dos atletas virtuais.
A verdade é que em PES 2014 muita coisa mudou. Aliás, m comparação com os títulos anteriores, é de longe o que mais sofreu modificações. A começar pela movimentação com a bola, que agora elimina qualquer impressão de que ela tenha uma espécie de magnetismo que fazia parecer que andava grudada nos pés pernas dos jogadores. Ela corre livremente pelo gramado e pode escapulir do seu controle em qualquer descuido - seja invertendo a direção de sua corrida ou na tentativa de um drible mais ousado.
O contato físico entre os jogadores também está mais real. Em PES 2013, ir ao encontro do adversário resultava em um esbarrão que muitas vezes não surtia efeito e tão pouco passava credibilidade. Dessa vez, o contato físico é mais real. Mesmo que ainda não seja completamente eficiente, ele torna-se uma alternativa na intenção de conter o ataque adversário. Dessa forma, o jogo de corpo reduz a velocidade de um jogador mais leve, o que facilita até mesmo na hora de roubar a bola.
O desarme também merece destaque pela forma com que ele evoluiu desde o título passado. É necessário apertar duas vezes o botão para que seja feito um "bote" no adversário na tentativa de tirar a bola do seu domínio. Ao mesmo tempo em que pode ser eficiente para o defensor, ele também pode favorecer o atacante adversário que, com um simples drible para o lado, deixa o oponente para trás. Essa dinâmica é sem dúvida a melhor evolução do jogo.
Drible, chutes e passes
Outros quesitos também receberam grandes mudanças na nova versão, porém, nem todos merecem elogios. O sistema de dribles é muito similar ao de Fifa 13, mas não tão eficiente. Para realizar os movimentos, deve-se pressionar o botão RT (Xbox 360) ou R2 (PS3) e movimentar o atleta com o direcional. Dessa forma, ele executa um movimento pré-programado ou simplesmente passa o pé pela a bola.
Em jogadas individuais contra apenas um adversário, o movimento é eficiente e uma ótima alternativa para sair livre na cara do gol. Entretanto, em jogadas de velocidade ele acaba prejudicando o jogador, que precisa desacelerar para realizar o movimento.
O sistema de chutes ainda sofre com alguns exageros. É difícil balancear a barra na hora da finalização. Sendo assim, muitos jogadores oscilam em chutar a bola bem fraco ou simplesmente isolar a redonda na arquibancada. O recurso de 'chute colocado' também sofre com esse problema, sendo utilizado na maioria das vezes em momento em que o jogador encontra-se sozinho com o goleiro.
Já os passes agora estão mais eficientes e ao mesmo tempo menos artificiais. Além de mais precisos, eles respeitam a posição direcionada pelo próprio jogador, deixando com que a culpa de um passe que não deu certo seja sua e não do atleta virtual. Os passes em velocidade (executados com o botão Y no Xbox 360 e " triângulo" no PS3) também recebem uma boa dose de realismo, fazendo com que o você se acostume com a barra e a distância do lançamento para que a jogada dê certo.
Uma nova mecânica para cobranças de bola parada
PES 2014 conta com uma nova técnica para a cobrança de bola parada. Em falta e escanteios, uma linha pontilhada auxilia os jogadores mostrando a provável direção da bola. Porém, o movimento ainda é influenciado pela força aplicada na hora da cobrança.
As cobranças de pênaltis não têm essas mesmas linhas pontilhadas, mas contam com uma marcação que permitem ao jogador direcionar o chute. Já os goleiros, podem se movimentar antes ou depois da cobrança. Isso mesmo, você pode esperar o chute para depois pular na direção desejada. Dessa forma, a responsabilidade passa para o cobrador, já que se a finalização não for tão bem batida, o goleiro irá alcançar.
Modos de jogos
PES 2014 não conta com novos modos de jogo. A única grande novidade é o modo de Treinamento que está mais completo do que nas versões anteriores. Ele é ideal para quem quer aprender os novos comandos do game, como controle do goleiro e o sistema de dribles.
- Vida Futebolística
O principal modo de PES continua dividido entre Liga Master e Rumo ao Estrelato. Ambos trazem novos menus e animações, ao contrário das telas confusas de PES 2013. No modomanager, as contratações estão mais reais, ou seja, caso seu time não ande muito bem no campeonato será necessário "atirar para todos os lados" até que algum jogador se interesse pelo seu clube.
Já o Rumo ao Estrelato conta com novas opções de personalização do atleta, principalmente no que diz respeito a sua face. É possível configurar até mesmo diâmetro dos olhos, nariz, queixo e outras partes do rosto. Os penteados pré-programados também ganham algumas novidades, mas nada tão inovador.
Com a carreira iniciada, é possível perceber que o jogo está mais honesto em relação a sua atuação em campo. Caso o jogador tenha um rendimento acima da média, ele será titular quase sempre e só será substituito se não estiver em um bom dia ou se apresentar problemas de exaustão. As propostas também estão mais dinâmicas e surgem com mais facilidade, entretanto, ainda dependem muito de seu agente para que ocorram com frequência.
O que decepciona, e muito, é a queda brusca de quadros na câmera padrão do modo Rumo ao Estrelato - a que foca seu jogador a todo momento. Diante de cenários tão ricos em detalhes, os hardwares dos consoles desta geração não suportam e deixam o jogo lento demais. O jeito é optar por outro tipo de visão.
 LIbertadores e UEFA Champions League
PES 2014 conta com os principais torneios de clubes do planeta, como a UEFA Champions League, Taça Libertadores e AFC Champions League. Todas contam com os times que disputaram suas últimas edições (temporada 2013), sendo assim, o Palmeiras está disponível entre os clubes.
Também é possível disputar Ligas Nacionais e outros torneios personalizados. As Copas também estão presentes e estão divididas entre clubes e países de determinadas regiões. Porém, você pode fazer uma verdadeira mistura na Copa Konami, onde além da possibilidade de mesclá-los, também conta com os times de craques do passado.
Controle quase manual dos goleiros
Outra novidade de PES 2014 fica por conta do controle do goleiro. Agora é possível realizar alguns movimentos na tentativa de impedir o gol adversário. Sendo assim, você pode realizar comandos para que os goleiros saltem para o lado determinado ao invés de um avanço desorientado, algo comum em outras versões do game.
Ainda sobre goleiros, estes receberam grandes melhorias e estão mais eficientes. Dificilmente tomam gols de chutes de longe ou saem atabalhoados quando está no mano a mano com o jogador do outro time. Entretanto, não estão livres de críticas e ainda assim cometem falhas grandes, principalmente no que diz respeito a demora para saltar na direção da bola.
Clima de final de Copa do Mundo
PES 2014 traz um visual que instiga os jogadores a iniciar uma partida. Desde os menus inciais, até o vídeo de preparação da partida, o clima de uma partida de futebol nunca foi tão bem reproduzido em um game. Se não bastasse a preparação dos jogadores no corredor dos vestiários, ainda há a animação da torcida que, independente do jogo, mostra um público animado que carrega bandeiras e flâmulas, e grita de forma crescente a cada ataque da equipe que joga em casa.
Clima de final de Copa do Mundo
PES 2014 traz um visual que instiga os jogadores a iniciar uma partida. Desde os menus inciais, até o vídeo de preparação da partida, o clima de uma partida de futebol nunca foi tão bem reproduzido em um game. Se não bastasse a preparação dos jogadores no corredor dos vestiários, ainda há a animação da torcida que, independente do jogo, mostra um público animado que carrega bandeiras e flâmulas, e grita de forma crescente a cada ataque da equipe que joga em casa.
Com a bola rolando, o visual continua impressionando. Atletas apresentam feições muito bem definidas que recebem o mesmo efeito de luz e sombra que o gramado dos estádios. Durante os replays, é possível notar, por exemplo, a expressão de felicidade de quem marcou um gol, ou a decepção de quem levou. Isso também ocorre em lances mais comuns, como faltas cobradas para fora ou insatisfação perante a marcação de um impedimento.
Entretanto, isso acaba gerando um grande problema: loadings demorados. Além de um carregamento antes de iniciar as partidas, é preciso também esperar depois das animações de entrada dos times em campo. Mesmo cortando as cenas, é preciso aguardar muitos segundos até que finalmente as partidas se iniciem. Resta à Konami providenciar algo criativo como Fifa, que proporciona atividades de treinamento durante esses momento de espera.

Fonte de alimentação

As placas, drives e todos os sistemas do computador são feitos de delicadas peças que exigem uma quantidade adequada de energia. E só uma fonte de qualidade consegue enviar essa energia de forma correta para cada peça. Entenda neste artigo para que serve uma fonte de alimentação e como escolher uma para seu computador.
Processador, Memória, HD e Placa-Mãe. Esses quatro componentes costumam dominar a cabeça de quem está escolhendo ou montando um computador. Um erro muito comum dos usuários, contudo, é se esquecer das peças tão importantes para o desempenho do computador quanto para sua vida útil. Isto é, as fontes de Alimentação ou PSU.
Quando essa energia oscila, podem ocorrer problemas no desempenho e até a perda de algum componente do computador. Numa analogia com o corpo humano onde a CPU é o cérebro e a placa mãe é o sistema nervoso central, a fonte de energia é como o sistema digestivo.
Imagine que você precise praticar exercícios por um período de aproximadamente umas três horas. Se você tem uma alimentação de qualidade e em uma quantidade adequada, você consegue se exercitar sem problemas. No entanto, se você não está recebendo a quantidade adequada de vitaminas e minerais, seu desempenho será consideravelmente menor.
No computador, a alimentação não precisa ser definida pelo usuário: basta jogar 110v ou 220v na fonte, pois ela é a responsável por digerir essa energia e passar a corrente para os componentes do computador. Se a fonte não for eficiente, ela poderá passar menos energia e esquentar demais o PC, fazendo com que haja mais esforço dos coolers, redução do desempenho do processador e da placa de vídeo, bem como uma possível queima desses componentes.

Nobreak

Um nobreak ou UPS (Fonte de Energia Ininterrupta, na sigla em inglês) é um condicionador que regula a voltagem e a pureza da energia que chega até os eletrônicos conectados a ele. Além disso, nobreak também é responsável por alimentar os dispositivos, em caso de queda de luz, através de uma bateria.
Existem outros equipamentos com funções próximas a de um nobreak, como o filtro de linha e o estabilizador. No entanto, o nobreak costuma ser o dispositivo mais completo, pois é capaz de fornecer energia em caso de apagões.
Os nobreaks são medidos por números que representam sua potência, em VA (voltampere). Isto indica quanta energia a bateria pode produzir quando não houver luz, o que está diretamente associado ao tempo que ele é capaz de manter o equipamento ligado. Mas isso também depende do número de aparelhos ligados a ele e qual o consumo de cada um.A maioria dos nobreaks fornecem apenas 15 minutos de energia para um computador, por exemplo. É o tempo necessário para salvar e fechar todos os arquivos e programas e, desligar o aparelho com segurança.
As baterias desses despositivos têm um tempo de vída útil. Assim como as baterias de um carro, é importante trocá-las. O tempo varia de modelo para modelo, mas a média fica entre 2 e 3 anos.

  A maioria dos nobreaks fornecem apenas 15 minutos de energia para um computador, por exemplo. É o tempo necessário para salvar e fechar todos os arquivos e programas e, desligar o aparelho com segurança.
As baterias desses despositivos têm um tempo de vída útil. Assim como as baterias de um carro, é importante trocá-las. O tempo varia de modelo para modelo, mas a média fica entre 2 e 3 anos.
Por que ter um nobreak?
Tempestades, como estas que ocorrem no verão, geram uma enorme variação de energia, devido às descargas elétricas de raios nas áreas próximas. Estas variações podem levar a queima total ou parcial de equipamentos.
É, também, muito comum ocorrerem variações de até 10%, para cima ou para baixo, na voltagem de redes elétricas, o que pode reduzir a vida útil dos aparelhos.

Estabilizador

O estabilizador é um equipamento que tem a função de proteger aparelhos eletrônicos das variações de tensão que recebe da rede elétrica. Portanto, suas tomadas devem trazer energia estabilizada, diferente da energia que vem da rua, exposta a variações.
As redes elétricas estão sucetíveis a inúmeros problemas que podem danificar os aparelhos, dentre variações, quedas de energia etc. As redes brasileiras, em especial, são notórias por questões dessa natureza, como os famosos apagões que acontecem ao redor do país.
Em eventos dessa natureza, é muito comum que hajam prejuízos materiais, como perda de alimentos perecíveis e queima de eletroeletrônicos, pela brusca queda de energia. Para evitar estes e outros prejuízos, foram inventados equipamentos que têm as funções de estabilizar, limpar e manter a energia fornecida (com baterias, caso dos nobreaks) por um curto período. O estabilizador é um exemplo desse tipo de equipamento.
Como funciona
Os estabilizadores geralmente são compostos por um fusível de proteção, uma chave seletora da tensão da rede, tomadas de saída para ligar os aparelhos, uma chave para ligar e desligar e uma proteção para linha telefônica em alguns modelos.
Espera-se que os estabilizadores sejam capazes de nivelar a tensão elétrica, a voltagem da rede, e, assim, os picos de energia não afetarão diretamente os aparelhos.
No momento em que há um aumento da tensão na rede, os estabilizadores devem agir e regular a voltagem sobre cada aparelho, evitando, dessa forma, que estes sejam queimados. Já quando a rede sofre uma queda na sua tensão, o estabilizador aumenta a tensão, impedindo que os aparelhos desliguem.
Para proteger um equipamento, o estabilizador queima no seu lugar. Isso ocorre porque tais aparelhos mantém dentro de si um fusível de proteção, que é queimado em condições de grande instabilidade na tensão da rede, cortando o fornecimento de energia e impedindo que as voltagens instáveis não alcamcem o aparelho.


sexta-feira, 20 de setembro de 2013

Notebook com bateria solar promete autonomia de até 10 horas

Trabalhar com um notebook em locais abertos normalmente deixa seu dono refém da autonomia da bateria. Esse não é o caso do SOL, apresentado pela canadense WeWi, que possui uma placa para recarregamento solar acoplada à tampa do novo modelo.

inda não foram divulgados detalhes sobre as especificações técnicas. Contudo, de acordo com a companhia, a bateria do aparelho tem autonomia de até 10 horas e, debaixo de um sol forte, pode ser recarregada em apenas duas horas. Também já se sabe que rodará o sistema operacional Ubuntu sobre um processador Intel, conexão Wi-Fi, tela com resolução HD (720p) e a opção de um módulo de conexão à Internet via satélite.
De acordo com a empresa desenvolvedora, o SOL foi criado para ser usado, principalmente, em países em desenvolvimento, onde a energia elétrica é escassa ou inexistente. O primeiro país a receber modelos do aparelho será Gana, na Africa.
Quando chegar ao mercado, terá o preço de 300 dólares. Apesar de não ser um valor largamente acessível – principalmente quando se coloca no contexto de países subdesenvolvidos – o notebook poderá auxiliar o trabalho de entidades humanitárias e serviços voluntários de saúde, por exemplo.

Novo teclado sem fio ‘all-in-one’

Logitech anunciou o seu mais novo teclado/touchpad otimizado para Windows 8 nesta terça-feira (13). É o KTK820, um acessório bastante compacto com uma superfície sensível ao toque acoplada a ele. O produto funciona sem fio e chega ao mercado americano ainda neste mês pelo valor de US$ 100 (cerca de R$ 233).
O aparelho tem um design ultra-fino que ocupa menos espaço na mesa e ainda oferece a praticidade de se conectar por meio de tecnologia wireless, facilitando a utilização do usuário em três aspectos: menos espessura, menos fios e também ausência de mouse, pois já traz uma grande área para o touchpad.


“Nós criamos o Logitech Wireless All-in-One Keyboard TK820 para combinar tudo o que você precisa para controlar e navegar no seu computador em um acessório bastante portátil. Este teclado oferece uma maneira inovadora de navegar, deixando você digitar, tocar e deslizar com um único acessório”, afirmou Charlotte Johs, vice-presidente de desenvolvimento de acessórios de PC da Logitech.
Ainda não há nenhuma data de lançamento prevista para o Brasil, mas o produto chega em agosto ao mercado dos Estados Unidos e da Europa por US$ 100 (cerca de R$ 

Android

Android é um sistema operacional do Google para smartphones, TVs e tablets. Baseado em Linux e de código aberto, o sistema móvel é utilizado em aparelhos da Samsung, LG, Sony, HTC, Motorola, Positivo, Asus, além do próprio do Google e outras fabricantes menos conhecidas. O Android está atualmente na versão 4.2.2 Jelly Bean e recebe, normalmente, até duas grandes atualizações por ano. Uma das principais vantagens do sistema é a variedade de aplicativos encontrados em sua loja virtual Google Play. Porém, malwares, vírus e travamentos são apontados como as principais desvantagens do Android. Além da loja de apps, os aparelhos equipados com o sistema também contam a coleção de aplicativos nativos do Google, como Gmail, Google Maps, Street View, YouTube, Google Drive, Google+, GTalk, entre outros. O Android também recebe personalizações e aplicativos exclusivos de cada fabricante, como a TouchWiz, da Samsung; e a Optimus UI, da LG. Isso faz com que as novas versões do sistema demorem a chegar a todos os produtos. Em contrapartida, o Google lança periodicamente aparelhos Nexus, sua linha com o Android Puro.



Cartão de memória mais rápido do Mundo

Cerca de um ano após a CompactFlash Association anunciar a especificação CFast 2.0, a SanDisk revelou o seu primeiro cartão de memória desse tipo, o Extreme Pro CFast 2.0. A velocidade de leitura do dispositivo será de até 450MB/s e a de gravação de até 350MB/s, números que fazem dele o cartão de memória mais rápido do mundo, segundo a companhia.

Outra melhoria trazida pelo novo cartão é o design sem pinos e números de série individuais que permitem ao cliente criar um registro e obter suporte técnico específico para o produto. Embora a velocidade seja a maior novidade, ainda são poucos os equipamentos preparados para utilizar o Extreme Pro CFast 2.0. A única câmera capaz de utilizá-lo é a recém-anunciada Arri Amira - embora a Arri XT e Classic possam usá-lo com um adaptador.
Para aqueles que ainda usam o armazenamento tradicional CompactFlash para filmagem 4K, a SanDisk anunciou também a ampliação dos limites de armazenamento com um novo cartão de 256GB com o preço de US$1809. Os preços para os cartões CFast 2.0 e seu leitor USB 3.0 ainda não foram divulgados.

Games

GTA 5 arrecadou US$ 1 bilhão (mais de R$ 2 bilhões) poucos dias após o seu lançamento, se tornando o produto a chegar mais rápido a marca na indústria do entretenimento. Em apenas três dias o game esmagou o recorde o anterior estabelecido por Call of Duty: Black Ops 2, que levou 15 dias para chegar a esse número. Grand Theft Auto 5 já está disponível para Xbox 360 PlayStation 3.
O título da produtora Rockstar Games arrecadou US$ 800 milhões apenas em suas primeiras 24 horas de lançamento em várias partes do mundo. Esse valor supera a arrecadação alcançada com todos os outros jogos da série Grand Theft Auto e qualquer outro título da Take-Two Interactive, que publica a franquia GTA.Call of Duty: Black Ops 2 havia estabelecido um novo recorde na indústria do entretenimento ao alcançar US$ 1 bilhão em 15 dias, 48 horas a menos do que o filme Avatar de James Cameron, que levou 17 dias. No entanto, o recorde estabelecido por GTA 5 não deverá ser quebrado tão cedo.
O CEO da Take-Two Interactive, Strauss Zelnick, comentou: “Todos estamos entusiasmados com a resposta inicial a Grand Theft Auto 5. Mais uma vez, o time da Rockstar Games se superou, determinando o novo patamar para criatividade, inovação e excelência na indústria do entretenimento”.

HP lança primeiro notebook do mundo com o sensor Leap Motion integrado

A HP anunciou o primeiro notebook do mundo a trazer o sensor de movimento Leap Motion. É uma versão do Envy 17, com as mesmas especificações do modelo original, porém com o suporte a controles gestuais proporcionado pelo acessório. O gadget chega ao mercado em outubro com preços a partir de US$ 1049 (cerca de R$ 2415).


A tecnologia Leap Motion tem suporte a movimentos com as mãos e todos os 10 dedos, com velocidade de 290 quadros por segundo, garantindo uma precisão acima da média, em um campo de visão de 150 graus. No laptop da HP, ela fica em um pequeno sensor “abaixo” do teclado.
 Ao iniciá-lo pela primeira vez, o usuário tem que calibrar o sensor. Depois disso, ele fica ativo por padrão. No entanto, é possível desativá-lo, basta apertar simultaneamente a barra de espaço e a tecla Fn. Um pequeno indicador de LED, como os de conexão Wi-Fi e bateria, por exemplo, mostra se ele está ligado.Até agora, já há mais de 100 aplicativos com suporte ao Leap Motion, e a expectativa é de que este número só cresça daqui para a frente, com a chegada de novos produtos, como este Envy 17, ao mercado. O recurso é bem semelhante ao Kinect, do Xbox 360, e dá ao usuário a opção de controlar seu notebook sem tocar no mouse ou na tela.
Além do Leap Motion, o novo Envy 17 tem um hardware de alto nível, com processadores Intel Core i3, i5 ou i7 de quarta geração, memória RAM de até 8 GB, gráficos dedicados com placa da NVIDIA, 1 TB de armazenamento e display de 17.3 polegadas com resolução de 1920 x 1080 pixels. Além de microfone, 

Placa de Vídeo

Placa vídeo continha um simples bitmap da imagem atual, atualizada pelo processador, e o RAMDAC (um conversor digital-analógico que faz parte da placa de vídeo) lia a imagem periodicamente e a enviava ao monitor. A resolução máxima suportada pela placa de vídeo era limitada pela quantidade de memória de vídeo. Na época, memória era um artigo caro, de forma que as placas vinham com apenas 1 ou 2 MB. As placas de 1 MB permitiam usar no máximo 800x600 com 16 bits de cor, ou 1024x768 com 256 cores. Estavam limitadas ao que cabia na memória de vídeo. 
Nos computadores de baixo custo, as placas de vídeo estão incorporadas na placa-mãe, não possuem memória dedicada, e por isso utilizam a memória RAM do sistema, normalmente denomina-se memória (com)partilhada. Como a memória RAM de sistema é geralmente mais lenta do que as utilizadas pelos fabricantes de placas de vídeo, e ainda dividem o barramento com o processador e outros periféricos para acessá-la, este método torna o sistema mais lento. Isso é notado especialmente quando se usa recursos tridimensionais.


A placa de video do seu pc, é muito útil ainda mais para quem gosta de usar o PC para jogar os jogos mais atuais e modernos, saiba porque lendo este artigo de placa de video.


Cabe à placa de vídeo gerar tudo o que vai aparecer em seu monitor, como imagens de jogos e de aplicações, efeitos, etc. Hoje, tem-se uma imensa variedade de placas, porém, as marcas mais conhecidas desse segmento são a ATI e a NVIDIA, duas fortes concorrentes. Na verdade, ambas produzem o chip gráfico (uma espécie de processador responsável pela geração de imagens, principalmente em aplicações 3D).

Processador

Um processador é uma espécie de microchip especializado. A sua função é acelerar, endereçar, resolver ou preparar dados, dependendo da aplicação. Basicamente, um processador é uma poderosa máquina de calcular: Ela recebe um determinado volume de dados, orientados em padrão binário 0 e 1 e tem a função de responder a esse volume, processando a informação com base em instruções armazenadas em sua memória interna.
A Evolução dos processadores é surpreendente. A primeira marca no mercado foi a INTEL, com o a CPU 4004, lançado em 1970. Este CPU era para uma calculadora. Por isto, muitos dizem que os processadores começaram em 1978, com a CPU 8086, também da Intel
 É o componente de hardware responsável por processar dados e transformar em informação. Ele também transmite estas informações para a placa mãe, que por sua vez as transmite para onde é necessário (como o monitor, impressora, outros dispositivos). A placa mãe serve de ponte entre o processador e os outros componentes de hardware da máquina. Outras funções do processador são fazer cálculos e tomar decisões lógicas.A Tecnologia dos processadores está evoluindo cada vez mais. Atualmente temos processadores domésticos com 8 núcleos, e cada vez aumenta mais a capacidade de processamento dos novos produtos lançados no mercado.

terça-feira, 20 de agosto de 2013

Memória RAM

A memória RAM é um componente essencial não apenas nos computadores pessoais, mas em qualquer tipo de computador, pois é onde basicamente ficam armazenados os programas básicos operacionais. Por mais que exista espaço de armazenamento disponível, na forma de um HDD ou memória flash, é sempre necessária uma certa quantidade de memória RAM e, naturalmente, quanto mais memória, melhor o desempenho, uma vez que os programas tendem a se desenvolver com o passar do tempo e da pesquisa científica.

HISTÓRIA
O primeiro tipo de memória RAM foi a núcleo magnético, desenvolvida de 1955 a 1975 e, posteriormente, utilizada na maioria dos computadores até o desenvolvimento e adoção da estática e dinâmica de circuitos integrados RAM no final dos anos 1960 e início de 1970.

TIPOS
Existem basicamente dois tipos de memória em uso: SDR e DDR. As SDRs são o tipo tradicional, onde o controlador de memória realiza apenas uma leitura por ciclo, enquanto as DDR são mais rápidas, pois fazem duas leituras por ciclo. O desempenho não chega a dobrar, pois o acesso inicial continua demorando o mesmo tempo, mas melhora bastante. Os pentes de memória SDR são usados em micros antigos: Pentium II e Pentium III e os primeiros Athlons e Durons soqueteA. Por não serem mais fabricados, eles são atualmente muito mais raros e caros que os DDR, algo semelhante ao que aconteceu com os antigos pentes de 72 vias.

Armazenamento e colaboração nas nuvens


 A computação em nuvem traz benefícios gigantescos, como a necessidade de espaços de armazenamento menores, edições colaborativas e menores requerimentos de hardware para aplicações, mas depende de uma conexão a internet constante e de alta velocidade para funcionar corretamente.
Este recurso ainda é subaproveitado, e com o barateamento da transmissão de dados, os equipamentos eletrônicos e a melhoria da qualidade dos serviços das operadoras de internet, a tendência é de que a maioria dos arquivos em um computador deixe de ser armazenada localmente e passe a ser pega diretamente da nuvem.
Pensando pequeno, você não precisaria ter uma coleção de MP3 e filmes em seu disco. Basta acessá-los e aproveitar um momento de descontração. Seus documentos, trabalhos e estudos ficarão hospedados na rede, e não será necessário enviá-los por email para o destinatário. Basta que ele acesse o arquivo e faça as alterações. Tudo será registrado, e você poderá ver exatamente o que foi alterado, quando e por quem.
Isar Mazer levanta um ponto importante: na nuvem, o usuário poderá interagir com aplicativos inteligentes, que utilizam suas várias experiências em diversos campos para evoluir linhas de raciocínio e fornecer serviços cada vez mais precisos e especializados.
Escritórios tendem a deixar de existir. Determinados cargos existirão apenas na forma de Home Office, já que o trabalhador não precisará se deslocar até o local do emprego, economizando os recursos naturais que seriam utilizados no transporte e o tempo do translado

terça-feira, 13 de agosto de 2013

Placa Mãe

                          Placa Mãe ASUS Maximus VI Hero



A Maximus VI Hero é um modelo intermediário voltado para quem não quer gastar muito mas, deseja um produto de qualidade. Seu chip de som O SupremeFX introduz a tecnologia de multi-shielding para reduzir a interferência de som e o recurso Sonic Radar adiciona uma camada adicionar na tela de jogo, a fim de destacar inimigos, aliados e pontos de interesse durante o jogo.

ASUS senti que houve uma lacuna em sua pilha de produtos ROG. O VI Maximus Extreme é uma placa projetada para os overclockers extremos, a Maximus Formula VI é voltado para jogos Premium, o Maximus VI Gene é construído para os fãs de sistemas de fator de forma pequeno. O herói irá preencher a lacuna entre a Formula e o Gene, dando aos usuários de fator de forma padrão a experiência ROG e qualidade sem o preço da Formula e Extrema.

Há um monte de tecnologia que vai para a ASUS ROG Maximus VI Hero. Algumas das tecnologias incluem Extreme Motor Digi + III, cinco 4pin conectores de ventoinha, USB 3.0 Boost, oito portas SATA 6GBPS III, DirectKey, ROG External Connector, Trusted Platform Module, dois slots PCIe x16 Gen3.0 suporte SLI e CrossFireX, uma PCIe 2.0 x16 (rodando a x4), três slots PCIe 2.0 x1 Gen, áudio SupremeFX e GameFirst II Intel Ethernet são apenas algumas das tecnologias que compõem o ASUS Republic of Gamers Maximus VI herói mãe.



Dando uma olhada nas especificações do ASUS Maximus VI herói há algumas características-chave de apontar. Primeiro entre eles pode ser óbvio, mas ainda vale a pena mencionar. A ASUS ROG Maximus VI herói suporta o mais recente quarta geração de processadores da série Intel Core i no pacote LGA1150 juntamente com o chip set Intel Z87 Express. O herói também suporta memória dual Chanel em 2800MHz (OC) até ao valor de 32 GB. Se você está olhando para executar os gráficos integrados, a ASUS Maximus VI herói só tem uma única saída HDMI, embora ele suporta o mais recente vídeo 4Kx2K.



 

Monitores








monitor é um dispositivo de saída do computador, cuja função é transmitir informação ao utilizador através da imagem.
Os monitores são classificados de acordo com a tecnologia de amostragem de vídeo utilizada na formação da imagem. Atualmente, essas tecnologias são três: CRT , LCD e plasma. À superfície do monitor sobre a qual se projecta a imagem chamamos telaecrã ou écran.

CRT a tela é repetidamente atingida por um feixe de elétrons, que atuam no material fosforescente que a reveste, assim formando as imagens.

Este tipo de monitor tem como principais vantagens:
  1. longa vida útil;
  2. baixo custo de fabricação;
  3. grande banda dinâmica de cores e contrastes; e
  4. grande versatilidade (uma vez que pode funcionar em diversas resoluções, sem que ocorram grandes distorções na imagem).
As maiores desvantagens deste tipo de monitor são:
  1. suas dimensões (um monitor CRT de 20 polegadas pode ter até 50 cm de profundidade e pesar mais de 20 kg);
  2. o consumo elevado de energia;
  3. seu efeito de cintilação  e
Este tipo de monitor tem como principais vantagens:
  1. longa vida útil;
  2. baixo custo de fabricação;
  3. grande banda dinâmica de cores e contrastes; e
  4. grande versatilidade (uma vez que pode funcionar em diversas resoluções, sem que ocorram grandes distorções na imagem).
As maiores desvantagens deste tipo de monitor são:
  1. suas dimensões (um monitor CRT de 20 polegadas pode ter até 50 cm de profundidade e pesar mais de 20 kg);
  2. o consumo elevado de energia;
  3. seu efeito de cintilação

LCD a tela é composta por cristais que são polarizados para gerar as cores.

Tem como vantagens:
  1. O baixo consumo de energia;                                      
  2. As dimensões e peso reduzidas;
  3. A não-emissão de radiações nocivas;
  4. A capacidade de formar uma imagem praticamente perfeita, estável, sem cintilação, que cansa menos a visão - desde que esteja operando na resolução nativa;
As maiores desvantagens são:
  1. o maior custo de fabricação (o que, porém, tenderá a impactar cada vez menos no custo final do produto, à medida que o mesmo se for popularizando);
  2. o fato de que, ao trabalhar em uma resolução diferente daquela para a qual foi projetado, o monitor LCD utiliza vários artifícios de composição de imagem que acabam degradando a qualidade final da mesma; e
  3. o "preto" que ele cria emite um pouco de luz, o que confere ao preto um aspecto acinzentado ou azulado, não apresentando desta forma um preto real similar aos oferecidos nos monitores CRTs;
      4.o contraste não é muito bom como nos monitores CRT ou de Plasma, assim a imagem fica com menos definição, este aspecto vem sendo atenuado com os novos paineis com iluminação por leds e a fidelidade de cores nos monitores que usam paineis do tipo TN (monitores comuns) são bem ruins, os monitores com paineis IPS, mais raros e bem mais caros, tem melhor fidelidade de cores, chegando mais proximo da qualidade de imagem dos CRTs;

Introdução T.I.

Estamos vivendo a era da Informática e, há algumas décadas, todas as tecnologias giram em torno do uso de microcomputadores. Essa realidade modificou tanto a forma de aquisição, como o modo de transmissão do conhecimento.

Informática é o nome genérico do conjunto das Ciências da Informação que inclui: a teoria da informação, o processo de cálculo, a análise numérica e os métodos teóricos da representação dos conhecimentos e de modelagem dos problemas. E a palavra Informática refere-se, também, especificamente ao processo de tratamento automático da informação por meio de máquinas eletrônicas, os computadores.

De um modo geral, pode-se pensar em computador como um equipamento capaz de armazenar e processar, lógica e matematicamente, quantidades numéricas.




MultifuncionalidadeAssim, após algumas décadas, os componentes diminuíram de tamanho e ficaram mais baratos, até que se chegou a modelos que pudessem ser colocados em cima de uma mesa ou, mesmo, carregados no bolso. E os sistemas foram adaptados até que qualquer indivíduo alfabetizado e de bom senso pudesse utilizar o equipamento.

Assim, desde a década de 60 eles tem sido usados em sistemas de controle de contas bancárias e de reservas de companhias aéreas, pois um computador manipula dados com grande velocidade, muito mais rápido do que as pessoas. Seu uso principal, portanto, é em tarefas que necessitem manipular grande quantidade de informações em pouco tempo.

Mas, durante muitos anos, os computadores foram privilégio apenas de grandes empresas, pois utilizar um deles significava dispor de um grande espaço físico, devidamente refrigerado e muitos funcionários trabalhando em tempo integral na sua manutenção.

Com o início da produção do microcomputador de uso pessoal (ou pc - personal computer), de baixo custo, esses dispositivos tornaram-se um equipamento de uso doméstico e uma ferramenta indispensável no dia a dia das pessoas.

Hoje podemos vê-los funcionando em muitos lugares: supermercados, escolas, lojas, hotéis, hospitais, consultórios médicos, dentários e advocatícios, etc.

Mas é óbvio que a multifuncionalidade é uma das grandes vantagens do computador pois é um instrumento de criação de textos, imagens, sons e vídeos e, também, de fragmentação de informações e banco de dados e, ainda, de simulação em treinamentos, planilhas, planos de apoio e gerenciamento de pesquisas. Assim, além de ser utilizado como equipamento de trabalho, também é usado para o entretenimento, por exemplo por meio de jogos que, a cada dia, se tornam mais interativos.

O uso de computadores garante cada vez mais o acesso à todo o tipo de informação pois houve um grande aumento na capacidade de armazenamento de dados e no acesso a eles. Assim, as informações contidas em computadores de todo mundo e presentes no ciberespaço, permitem que usuários tenham acesso à novos mundos, novas culturas, sem necessidade de locomoção física. Logicamente, no processo houve uma forte redução de custos, pois o que era distante agora é próximo, assim o uso de computadores otimizou o tempo e os custos.

Atualmente, a oferta de informatização, em quase todos os setores, ultrapassa nossa capacidade de aproveitamento. Simplesmente não conseguimos aproveitar tudo. Se antigamente já se debochou da precariedade da tecnologia, hoje temos de nos esforçar muito para usá-la corretamente, pois a complexidade ultrapassa nossa capacidade de entendimento.

Assim sendo, fica claro que o melhor aproveitamento da tecnologia depende, mais do que nunca, do ser humano. Torna-se, portanto, imprescindível que todos aprendamos algo da linguagem da informática e que dominemos minimamente o conhecimento da operacionalidade e das potencialidades de um microcomputador, objetivando aumento de produtividade, e e melhor qualificação e desempenho.



Inclusão e exclusão digital
Então, chega-se à questão da inclusão digital, ou seja, promover a possibilidade de um maior número de pessoas terem contato com as tecnologias associadas com computadores, já que as tecnologias da informação não constituem um fim em si mesmas, mas devem ser um instrumento para o desenvolvimento.

Entretanto, no Brasil, a barreira de entrada na Internet é significativa, pois a renda bruta da população é pequena, impedindo que milhões de brasileiros comprem um pc.

Dados de novembro de 2005 divulgados pelo Comitê Gestor da Internet no Brasil (CGI.br) revelam o abismo da inclusão digital no Brasil: enquanto 88,7% dos brasileiros da classe A e 55,5% e da classe B possuíam computadores em casa, apenas 16,1% da classe C e 2% da população das classes D/E possuíam um pc.

Portanto, parte da saída para reverter o quadro de exclusão digital está no acesso à internet por meio de centros públicos, em escolas e centros comunitários, e não apenas em políticas de redução de preços dos equipamentos. Assim, estão acontecendo esforços governamentais como a implantação de laboratórios de informática com acesso à internet em banda larga nas escolas, em alguns estados do país.

Mas no aspecto do acesso à web em centros públicos, as políticas do governo ainda têm muito a evoluir: menos de 1% das pessoas acessou a internet a partir de pontos públicos gratuitos em três meses do segundo semestre de 2005. Enquanto 10% acessaram de casa, 5% acessaram a partir da escola, o que revela a importância do equipamento das instituições de ensino para levar a inclusão à população.

Mas, evidentemente, apenas colocar um computador à frente das pessoas ou vendê-lo a um preço menor não inclui qualquer pessoa em nenhum processo. E os locais não podem ser um mero depósito de computadores, como é o caso de comunidades ou escolas que recebem computadores, que nunca são usados pois não há pontos de conexão à internet, não há apoio técnico para resolução de problemas de hardware, e porque faltam professores qualificados para ensinar o conhecimento necessário.

Evidentemente deve estar muito bem definido o que se deseja com a utilização de computadores: o estudante não só deve aprender tudo que for ensinado na sala de aula, mas também deve ser preparado para assumir uma profissão. A longo prazo, é a melhor ação de inclusão social em que se pode investir.

Pois, inclusão digital deve significar, antes de tudo, melhorar as condições de vida de uma comunidade com ajuda da tecnologia.O computador e a internet devem ser ferramentas de libertação do indivíduo, de autonomia do cidadão.

Ou seja, é absolutamente necessário nos projetos de inclusão social:


  •  ter objetivos claros,



  •  garantir a manutenção do hardware e da rede



  •  ensinar a usar o equipamento e os programas, tanto em benefício próprio como no coletivo.


Assim, para garantir a democratização da informação, é necessário haver muitos cursos básicos, com explicações práticas sobre o uso de computadores e a configuração de programas e de sua utilização, em linguagem clara e não técnica. Esses cursos são um inestimável auxílio para os iniciantes.

Tais cursos também devem impedir que tempo e equipamento sejam mal utilizados por aqueles que já tenham alguma experiência, pois todos os tipos de usuários, para bem usar um computador necessitam:

entender a terminologia da microinformática, os princípios básicos do funcionamento e das potencialidades do equipamento.

conhecer o funcionamento básico de alguns programas, possibilitando o esclarecimento das dúvidas mais frequentes.



O que é um "leigo(a)" em Informática?Para quem usa o sistema operacional Windows:

Se você sabe editar chaves de registro no Windows, tem e sabe usar programas que acompanham todas as chaves, INIs e DLLs alteradas numa instalação e sabe desfazer algo errado caso o desinstalador não funcione, já é um(a) usuário(a) plus.

Mas, se ainda pergunta onde está o ícone do RegEdit no menu Iniciar, ou nem sabe que o Windows tem este programa, você dependerá de suporte técnico caso algo errado aconteça.



Dica "quente"
Altas temperaturas podem danificar em muito o computador. Portanto:

Não coloque o computador dentro de móveis ou em locais de difícil circulação de ar,

Não coloque fontes de calor próximas ao gabinete,

Se o computador tiver uma placa mãe com sensor de temperatura, deixe-a sempre ativado. Aparecerá um aviso se ocorrerem temperaturas fora dos valores previstos pelos fabricantes e

Garanta que entradas de ar não estejam obstruídas pela poeira.



Hardware e Software
Assim, um computador digital é um equipamento eletrônico que processa dados usando programas, podendo ser dividido em:


  •  uma parte "física" (concreta, visível e palpável) denominada "hardware": os fios, placas de circuitos integrados, monitor, impressora, mouse, teclado, modem, placa de rede etc... Ou seja, é o equipamento.


Detalhes sobre alguns tipos de hardware podem ser encontrados em:

| Disco rígido | Entrada e Saída | Memória | Placa mãe |

| Processador | Outras Placas | Teclado |



  • uma parte "não física" chamada de "software, que é o conjunto de programas que faz a máquina funcionar e permite que se obtenha o resultado desejado de seu processamento.


Detalhes sobre alguns softwares podem ser encontrados aqui.


Portanto, mudando-se o software obtém-se um resultado diferente usando o mesmo hardware.

Para fazer a ligação entre o equipamento e os programas foram criados sistemas operacionais, como o Linux, o Mac, o Windows.



O computadorConcretamente, o computador é um equipamento, constituído por componentes mecânicos e eletrônicos que, a partir de dados de entrada, realiza um processamento, gerando novos dados como saída.

Basicamente um computador é composto de um processador central, capaz de efetuar operações lógicas e matemáticas de modo extremamente rápido, e de salvar informações, que utiliza vários dispositivos como disco rígido, memória, placa mãe e, também, vários dispositivos de entrada e saída de dados.

Atualmente é considerado quase como um eletrodoméstico e é geralmente associado a um gabinete, a um monitor, um teclado, a um mouse, a uma impressora, sendo extremamente importante que haja conexão à Internet.

São exemplos de computadores: ábaco, calculadora, computador analógico, computador digital.



As geraçõesQuando se pensa na história do computador e da Internet, observa-se que, apesar de muitos equipamentos terem aparecido bem antes, eles surgiram em torno dos anos 40 do século passado e eram enormes, ocupando vários metros quadrados.

Esses equipamentos passaram por uma grande evolução, que pode ser dividida em gerações.

Cada geração é caracterizada pelo desenvolvimento tecnológico no modo como o computador opera, resultando em equipamentos cada vez menores, mais poderosos, eficientes rápidos,e baratos.


 Primeira geração (em torno de 1940-1959)


  • Os computadores eram lentos, enormes, ocupavam salas inteiras e tinham muitos metros de fios,
  • Eram equipadas com válvulas eletrônicas e gastavam muita energia,
  •  Sua operação era muito cara e esquentavam muito, o que era, frequentemente, a causa de mau funcionamento,


  • Usavam linguagem de máquina para executar operações, só podendo resolver um problema de cada vez,
  • A memória baseava-se em cilindro magnético,
  • A velocidade de processamento era da ordem de milissegundos e a capacidade de memória era de 2 a 4 kbytes,
  • A entrada de dados era feita por meio de cartões ou fita de papel perfurados,
  •  A saída de dados era feita por impressoras,
  • Não existia sistema operacional. Os programadores eram operadores e controlavam o computador por meio de chaves, fios e luzes de aviso.