Lomadee, uma nova espécie na web. A maior plataforma de afiliados da América Latina.

quinta-feira, 30 de setembro de 2010

10 invenções desconhecidas de Thomas Edison


Sem dúvida, nossas vidas seriam muito diferentes sem as invenções de Thomas Alva Edison. Este criador prodigioso mudou nossa cultura de formas incontáveis com dispositivos aparentemente milagrosos que inundavam seu laboratório em Nova Jersey. 
Nascido em Ohio em 1847, Edison obteve sua primeira patente aos 22 anos de idade. A última patente em seu nome foi concedida dois anos depois de sua morte, em 1933. Entre ambas, ele contabilizou 1.093 patentes nos EUA e 1.200 patentes em outros países. Biógrafos calcularam que Edison conseguiu uma patente a cada duas semanas durante sua vida de trabalho. Mesmo muitas de suas invenções não sendo exclusivas - e ele engajou em algumas batalhas judiciais bem divulgadas com outros inventores cujas ideias ele "emprestou" -, a habilidade de Edison para o marketing e o uso de sua influência geralmente davam o crédito a ele.
A maioria das invenções de Edison caíam em oito categorias principais: baterias, luzes e energia elétrica, toca-discos e gravação de sons, cimento, mineração, imagens em movimento, telégrafos e telefones. Mas embora o "Mago de Menlo Park" seja lembrado por suas maiores invenções - as imagens em movimento, a luz incandescente e o toca-discos -, sua mente incansável também produzia algumas ideias que não eram tão bem conhecidas, e algumas dessas não foram bem-vindas para o público.
Continue lendo para descobrir por que membros do Congresso americano rejeitaram uma máquina projetada para torná-los mais eficientes e como outra invenção de Edison assustou garotinhas e endureceu seus pais. Você também vai descobrir sobre um dispositivo que poderia manter a genialidade de Edison conosco até hoje.


por Martha Barksdale

Curso básico de redes – final

Este artigo é uma colaboração do leitor Felipe Alencar, do blog Onisciência. Agradecemos! Deseja colaborar também? Envie um e-mail para pauta@guiadopc.com.br.


Modelo OSI – uma breve explicação
Não canso de afirmar que o assunto redes é algo fascinante. O número de possibilidades que se consegue interligando computadores é espantoso! Mas mais fascinante ainda é entender como tudo isso funciona, como tudo isso trabalha! A ISO (International Organization for Standardization Tabajara), uma entidade que reúne os grêmios de padronização/normalização de vários países, desenvolveu um padrão, ou modelo, para a conexão de computadores. É o famoso e tão falado Modelo OSI, que divide a rede em sete camadas e explica como essa “mágica” acontece.
Existem muitos livros, cursos e metodologias que se destinam a explicar o modelo OSI das mais variadas formas. Alguns começam de baixo, explicando a camada física, que contém os cabos, outros já começam de cima, da aplicação ou do software que está solicitando dados da rede, enfim, da minha parte, tentarei ser o mais didático e claro possível na minha explanação, não fazendo confusão com algo que em si é simples.
O modelo OSI (Open Systems Interconnection – Interconexão de Sistemas Abertos) divide a rede em sete camadas, são elas:
  • 7. Aplicação;
  • 6. Apresentação;
  • 5. Sessão;
  • 4. Transporte;
  • 3. Camada de Rede;
  • 2. Link de Dados;
  • 1. Camada Física.
Explicarei usando um exemplo prático. Imagine que você abra o navegador e acesse o endereço http://www.guiadopc.com.br. Estamos na camada 7 (Aplicação), onde o navegador, no caso o Opera, faz o papel do aplicativo que necessita acessar arquivos da rede. O Opera solicita os arquivos necessários ao sistema operacional que, por sua vez, abre uma Sessão, sim, esta é a camada 5.
Por que eu pulei a camada 6? Por que ela não é obrigatória em todos os casos, não é usada sempre. Mas ela funciona mais ou menos como uma camada adicional, quando é necessário fazer algum trabalho extra, como, por exemplo, criptografar dados a fim de aumentar a segurança.
Bem, continuando… O sistema operacional, após receber a solicitação do navegador, abre uma Sessão (Camada 5), que só é fechada quando o aplicativo recebe todos os dados solicitados. É nessa camada que o S.O verifica os arquivos recebidos, solicita retransmissões em caso de perda de pacotes ou reporta algum tipo de erro que esteja impossibilitando o recebimento dos dados.
Após verificar o endereço IP do site, o protocolo que será usado e outros detalhes, o S.O transforma a requisição feita pelo aplicativo, no caso o navegador, num pacote de dados. Isso acontece no quarta camada, a de Transporte, onde entra em cena o protocolo TCP (Transmission Control Protocol).
Algo muito importante e que deve ser entendido perfeitamente, é que as camadas 4 e 3 trabalham em conjunto. Na camada 4 temos a atuação do protocolo TCP, enquanto que na camada 3 vemos a figura do protocolo IP entrar em ação.
Explicando de forma genérica, o sistema operacional precisa enviar o pedido feito pelo navegador para o servidor onde o Guia do PC está hospedado. Para isso, o protocolo TCP transforma a requisição num pacote e o protocolo IP endereça esse pacote para o servidor do Guia do PC. Abaixo temos uma imagem ilustrando esse conceito:
Em um pacote TCP/IP, temos no máximo 1500 bytes. Destes, 40 bytes se destinam aos cabeçalhos TCP e IP. No cabeçalho TCP temos o número da porta de origem e número da porta de destino, no cabeçalho IP temos o número do IP de origem e o número do IP de destino, além de códigos de verificação, número do pacote, espaço para inclusão de opções etc… Assim sendo, dos 40 bytes reservados aos cabeçalhos, 20 dizem respeito ao TCP e os outros 20 se referem ao IP. Os 1460 bytes restantes são para o conteúdo do pacote.
É importante ressaltar que muito embora o TCP e o IP sejam dois protocolos distintos, eles têm íntima ligação, trabalhando em conjunto. Por isso que eles são chamados de uma forma que dá a entender que são um protocolo só, o TCP/IP.
Ok, depois de ter criado o pacote e o endereçado corretamente, ele já está pronto para ser encaminhado ao servidor. Chegamos então à camada 2 (Link de Dados), onde nos deparamos com as placas de rede e switches.
Ao receber os pacotes TCP/IP, a placa de rede não entende p**** nenhuma de tudo aquilo! Ela não entende TCP, ela não entende endereçamento IP, então, o que que ela vai fazer com isso tudo!? Ela vai trabalhar de acordo com aquilo que ela entende, que são endereços MAC.
Endereços MAC nada mais são dos que os endereços físicos das placas de rede. Eles são únicos para cada placa e atribuidos ainda em fábrica, gravados na ROM. Em tese, cada placa de rede deve ter o seu endereço MAC que, por suas vez, não deve ser igual a nenhum outro. Eles são compostos por 48 bits (6 bytes) representados por 12 dígitos hexadecimais. Um exemplo de um endereço MAC: 00:10:50:4B:6D:80.
Então, a nossa querida placa de rede transforma o pacote TCP/IP num frame Ethernet, contendo o endereço MAC de origem e o de destino. Bom, vamos de imagem que fica mais fácil de entender:
Este é o frame ethernet já completo. Aqueles 8 bytes lá no canto esquerdo, é um preâmbulo e uma sequência de inicialização que avisa aos outros micros da rede que uma transmissão está prestes a começar. Ele é descartado pelas placas de rede. Aí temos o cabeçalho MAC, formado por 14 bytes, que diz o endereço MAC de origem e o de destino, além do tipo de dados. No campo de Dados está o pacote TCP/IP cuja estrutura já vimos mais acima e por fim, 4 bytes de CRC, que as placas de rede usam para checar a integridade do frame depois temos o citoplasma, as mitocôndrias….
Após essa burocracia toda, finalmente chegamos até a camada 1 (Camada Física), representada pelos próprios cabos responsáveis de levar as informações de um canto a outro. Podem ser cabos de par trançado, cabos de fibra óptica, sinais de rádio das redes wireless, enfim, qualquer que seja o meio usado para o transporte dessas informações.
Finalmente os dados são enviados ao servidor do Guia do PC, que responderá à requisição enviando os arquivos solicitados de volta, nos possibilitando acessar a página.
Interessante salientar, também, a posição dos dispositivos usados nas redes dentro do modelo OSI e como isso nos ajuda a entender as suas funções. Por exemplo, os cabos atuam na camada 1, apenas fazendo o transporte dos bits, mas também temos a figura dos antigos hubs, chamados de burros, já que eles apenas retransmitiam as informações, sem entender absolutamente nada daquilo! Na camada 2, além das placas de redes, vemos o switch atuar nessa área, já que ele entende endereços MAC e é capaz de “fechar circuitos” entre dois computadores. E na camada 3, temos o roteador, que já entende endereços IP e descarta o frame ethernet com os endereços MAC. Para ficar mais fácil de entender, elaborei uma tabela com os integrantes de cada camada:
Este é o Modelo OSI e suas sete camadas, juntamente com a forma de atuação de cada uma delas. Como eu disse, seria apenas uma breve explicação, é claro que existem inúmeros outros detalhes que eu não abordei neste texto em prol da brevidade e para que todos pudessem ter uma visão geral de como funciona esse modelo. Mas a rede explica a rede, vocês têm todo o material do mundo à sua disposição, basta ter interesse em procurá-lo na grande rede.

Curso básico de redes – parte 4

Este artigo é uma colaboração do leitor Felipe Alencar, do blog Onisciência. Agradecemos! Deseja colaborar também? Envie um e-mail para pauta@guiadopc.com.br.

Os finados rivais do Ethernet

O Ethernet, com seus diversos padrões, hoje domina absoluto no universo das redes locais. Eles são baratos, são rápidos, são flexíveis, é um padrão aberto, atendem às mais diversas necessidades… enfim, eles são tão eficientes que é difícil imaginar que alguma empresa ouse criar um padrão proprietário para competir de frente com o Ethernet. Sim, podemos dizer que a hegemonia no mundo das redes locais pertence aos padrões Ethernet por tempo indeterminado. Mas nem sempre foi assim. Logo nos primórdios, padrões proprietários ameaçavam tirar a Ethernet do mercado. Vocês conhecerão hoje os finados rivais do padrão Ethernet. O ARCNET e o Token Ring.
Leia:




ARCNET

Desenvolvido em 1976 e chegando ao mercado em 1977, o padrão proprietário ARCNET disputava diretamente com os padrões 10BASE-5 e 10BASE-2 do Ethernet. Suas principais vantagens em relação ao seu rival foi o custo, que no início era relativamente mais baixo e seu alcance. Os cabos coaxiais RG62/U, usados pelo ARCNET, podiam ser usados a até 610 metros, enquanto que os usados no padrão 10BASE-5 chegavam no máximo a 500 metros. Além disso, tinha toda a questão da praticidade, já que como vimos anteriormente, o 10BASE-5 era chato de se trabalhar e nada prático. Devido a isso, o ARCNET conseguiu se tornar mais popular que o Ethernet.
Não obstante, ele também tinha os seus problemas. A taxa de transmissão era muito baixa, de apenas 2.5 megabits. Até mesmo o protótipo do Ethernet transmitia mais rápido, a 2.94 megabits! Além disso, por ser um padrão proprietário, a quantidade de fabricantes produzindo placas ARCNET era limitado e os preços não caiam na mesma velocidade que das placas Ethernet.
Ao perceberem que o padrão aberto estava sendo mais aceito e adotado, eles posteriormente abriram o padrão e originou o ANSI ARCNET 878.1, o que trouxe mais opções de cabeamento, inclusive cabos de par trançado, e mais fabricantes produzindo as placas. Além disso, eles aumentaram a taxa de transmissão para 20 megabits em 1999, com o ARCNET Plus, mas já era tarde demais, as placas Ethernet já estavam bastante acessíveis, o padrão já era mais flexível com o uso de cabos de par trançado e a taxa de transmissão era de 100 megabits desde 1995. Assim, o ARCNET não resistiu e acabou perecendo.

Token Ring


O Token Ring surgiu um pouco depois, em meados dos anos 1980, e foi desenvolvido pela gigante IBM. Ela chegou a investir maciçamente no padrão, levando-o ao topo no âmbito corporativo! Ele já utilizava cabos de par trançado e a ligação entre as estações era feita através de um hub, chamado de MAU (Media Access Unit) ou ainda de MSAU (Multistation Access Unit). Cada MAU possui tipicamente 10 portas, sendo que 08 eram para a ligação com as estações e as outras 02 para serem usadas com outros MAUs.

http://www.guiadopc.com.br/artigos/15872/curso-basico-de-redes-parte-4.html?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+guiadopc+%28Guia+do+PC%29

quarta-feira, 29 de setembro de 2010

Profissional reciclado é um profissional contratado

Um profissional capacitado tem que estar comprometido com seu crescimento. Nem sempre é fácil desenvolver idéias e aprender ainda é o passo certo para aqueles que estão tentando sair da rotina.

Publicado em: 29 de setembro de 2010
Leituras: 194
Canal: Gerência
Autor: Daniela Maimone
Luzes, câmeras e ação!

Partindo do princípio que o profissional de publicidade e propaganda precisa ser ousado e inovador, é mais que um dever manter-se atualizado, sem dúvida uma obrigação.
O cenário hoje é muito mais intenso e cauteloso no que diz respeito a contratar profissionais competentes e arrojados, de forma que as possibilidades existem para aqueles que apostam em cursos, workshops e oficinas criativas.
Um investimento seguro é aquele que tem como base bons profissionais envolvidos, uma instituição idônea e acima de tudo um grande número de participantes interessados. Lembrando ainda que a qualidade deve ser superior a quantidade.
Somatizar interesse é a solução de maior retorno para uma carreira de sucesso. Lembre-se: ou você entra em um contexto, ou acabará perdido em seu próprio ciclo de dúvidas.
Talvez em um primeiro momento você se sinta confuso com tantas opções, perdido diante de novas possibilidades e em saber como colocar tudo isso em pratica, mas é um investimento a longo prazo, de forma que quanto mais preparado e motivado estiver, melhor.
As vezes Empreender vai além de diversificar, é preciso saber argumentar e formar opiniões coerentes. E para argumentar com contexto é preciso ter bases seguras.
Somos cidadãos do mundo, um mundo lotado, mas carente de profissionais antenados e dispostos a aprender e derrubar paradigmas.
Estamos cercados de exemplos e fórmulas incríveis de perseverança. É hora de enxergar lá na frente e parar de puxar o freio de mão. E o fundamental: Cautela não é sinônimo de medo.
Para descobrir isso, você precisa de verdade compreender que o mundo esta cheio de ilusionistas frustrados que ainda sonham obter suas glórias e estes, capazes de tudo, atropelam quaisquer sinais de competição alheia. Ou seja meu amigo, o mundo é dos leões e não dos gatinhos inocentes.
Arme-se e esteja ao lado dos que fazem o mundo girar, pois com tantas opções dadas, sair da zona de conforto será seu alvo daqui por diante.
Não espere sua campainha tocar. Certamente a época de ouro do "Avon chama" perdeu seu foco faz tempo.
Talvez as melhores idéias brotem da necessidade, e se ela faz-se presente em sua vida, preste mais atenção aos sinais de urgência a partir de agora. Unidos a um objetivo, teremos então uma boa dose de vantagem, pois quem sabe o que quer sabe onde quer chegar.

sexta-feira, 24 de setembro de 2010

Como funcionam os projetos open source


Introdução



Você pode nunca ter lido uma licença de software durante a instalação, ou nunca ter alterado o código fonte de um programa para que ele funcionasse à sua maneira, mas pode ter certeza: você já usou softwares open source!
Dizer que um software é open source (código aberto) significa dizer que o seu código fonte está disponível para o usuário. Isso quer dizer que o usuário poder ler o código do programa. Há projetos que, dependendo da licença usada, também permitem a alteração do código fonte, com algumas ou nenhuma restrição.
Se o software não faz algo que poderia fazer, qualquer pessoa com conhecimento em programação poderia incrementá-lo inserindo novas funcionalidades. Com isso, esse tipo de software tende a evoluir muito mais rápido que os softwares proprietários, que dependem de recursos financeiros e de decisões comerciais para ter ou não alguma funcionalidade que os usuários queiram.
Para os projetos open source que permitem a alteração do código fonte, o desenvolvimento quase sempre é feito de forma colaborativa, em que programadores e outras pessoas ajudam com o crescimento do software e do projeto, seja inserindo novas funcionalidades, eliminando erros (bugs) ou até escrevendo documentação como manuais de uso e guias de instalação.
Projetos de software open source podem nascer de duas formas:
1.Quando há necessidade que ele exista e há programadores ou empresas dispostos a criá-lo (caso do Linux), ou
2.Quando empresas resolvem abrir o código fonte de algum produto comercial que ela já desenvolvia de forma proprietária (caso do Netscape).
Embora a maioria dos usuários normais desconheça o funcionamento de um projeto open source, seus resultados estão disponíveis a todos e são usados a todo tempo em toda parte. O seu provedor de internet provavelmente utiliza software open source para lidar com as conexões de rede e grande parte dos sites que você acessa é desenvolvida com tecnologia open source, de forma colaborativa.
Neste artigo vamos descrever as vantagens do software open source, suas vantagens técnicas e culturais, suas licenças e o que você pode ou não fazer. Vamos destrinchar como funciona o desenvolvimento colaborativo, o que os programadores usam, como se comunicam e como recebem por isso

PRÓXIMA > http://informatica.hsw.uol.com.br/projetos-open-source1.htm

sábado, 18 de setembro de 2010

Curso básico de redes – parte 3

Este artigo é uma colaboração do leitor Felipe Alencar, do blog Onisciência. Agradecemos! Deseja colaborar também? Envie um e-mail para pauta@guiadopc.com.br.

Padrões Ethernet

Em tudo na vida é preciso um determinado grau de organização, uma padronização para que tudo flua normalmente. Isso é especialmente verdade e imprescindível no que tange à tecnologia, que não vive sem padrões. E com as redes não poderia ser diferente! Existe uma diversidade de padrões que regulam e definem em detalhes como os dados são organizados e então transmitidos.
Leia:
Curso básico de redes – parte 1


O órgão responsável por desenvolver tais padrões é o IEEE (Institute of Electrical and Electronics Engineers), que além dos padrões de rede, desenvolve inúmeros outros, dedicados a comunicação, eletricidade e tecnologia como um todo. O IEEE é dividido em grupos de trabalho. O grupo responsável pelos padrões de rede é nomeado de IEEE 802 LAN/MAN Standards Committee, e este grupo, por sua vez, é subdivido em grupos de trabalho menores que recebem números sequenciais. Dentre estes, os mais importantes são o: 802.3; 802.11; 802.15.1; 802.16. Vamos conhecê-los brevemente:

•802.3: é o responsável por padronizar as redes Ethernet cabeadas, além de desenvolver os algoritmos para detecção de colisões, correção de erros e “otras cositas mas”. Existem diversos padrões. Já citamos os 10BASE-5, 10BASE-2, que utilizam cabos coaxiais, mas há também o 10BASE-T, que é o padrão para cabos de par trançado; o 100BASE-T e o 1000BASE-T para as redes de 100 e 1000 megabits. Sem falar nos padrões envolvendo os cabos de fibra óptica. Enfim, o grupo 802.3 é o responsável por aumentar o número de fios atrás de nossas mesas!

•802.11: pode ser que a maioria já o conheça. Este grupo desenvolve padrões para as redes wireless. Dentre eles, destacarei os: 802.11b; 802.11a; 802.11g; 802.11i e o 802.11n. O 802.11b trabalha a apenas 11 megabits e numa frequência de 2.4 GHz. O 802.11a, que surgiu depois do “b”, já é mais rápido, trabalhando a 54 megabits e dentro de uma frequência mais alta, de 5 GHz. Devido a isso, o seu raio de alcance é menor, mas em compensação, é mais resistente a interferências. O 802.11g uniu o melhor dos dois mundos, operando a 54 megabits e na faixa de frequência de 2.4 GHz, mantendo o alcance inicial e a compatibilidade com o padrão 802.11b. Mas agora temos o 802.11n, que opera a até 300 megabits e permite escolher a frequência em que ele irá trabalhar, tanto 2.4 GHz como 5 GHz.

Já o 802.11i tem que ver com outra atribuição tão ou até mais importante que as demais. Ele dita os padrões de segurança das redes wireless. Como qualquer um pode interceptar o sinal emitido pelas redes sem fio, a única forma de proteger os dados que trafegam por elas é encriptando-os. É aí que entra o padrão de encriptação WPA e WPA2, trazidos pelo 802.11i.
•802.15.1: Esse grupo é responsável pelo nosso velho conhecido Bluetooth, que também é considerado uma forma de rede sem fio, porém de menor porte e alcance. A grande vantagem dele é consumir pouca energia, podendo ser usado em dispositivos portáteis, tais como celulares.

•802.16: Ele também é um padrão de rede wireless, tal como o 802.11, porém com uma diferença: ele regula redes de longas distâncias, enquanto o anterior apenas no âmbito doméstico. Sabe as atuais redes 3G? Pois é, são regidas por esse padrão. E provavelmente essas redes sejam substituídas pelo padrão WiMAX, um forte candidato a desbancar as redes 3G e fornecer acesso à web nas grande cidades.

Bom, caso vocês queiram ler os textos técnicos da própria IEEE, basta acessar este link. Embora o Ethernet seja o padrão dominante hoje em dia, sem praticamente nenhum concorrente, no passado não foi assim.

sexta-feira, 17 de setembro de 2010

Curso básico de redes – parte 2

Este artigo é uma colaboração do leitor Felipe Alencar, do blog Onisciência. Agradecemos! Deseja colaborar também? Envie um e-mail para pauta@guiadopc.com.br.

A evolução do cabeamento

Praticamente tudo na informática passou por um processo evolutivo relativamente longo, abrangendo algumas décadas. Com as redes não foi diferente. Vimos isso no post anterior, que mostrou brevemente a história das redes de computadores. Após a implementação bem sucedida da ARPANET e do padrão Ethernet para transmissão de dados numa rede local, o próximo passo seria melhorá-los, naturalmente.
Do padrão Ethernet original usado no PARC que transmitia a apenas 2.94 megabits, surgiu o padrão de 10 megabits. Que posteriormente foi substituído pelo padrão de 100 megabits, chamado de Fast Ethernet e pelo de 1000 megabits, o Gigabit Ethernet, mais comumente usados hoje em dia. E como dizia Cazuza, “o tempo não para”, e ele realmente não parou e já temos o padrão 10 Gigabit ou carinhosamente chamado de 10G, que transmite a 10.000 megabits por segundo! Enfim, uma evolução natural que também exigiu o aperfeiçoamento do cabeamento usado nas redes ao longo do tempo.
Dos cabos coaxiais aos de fibra óptica, farei uma rápida passagem pela linha do tempo nos cabeamentos de rede. Tudo começou com aquele primeiro padrão a ser usado em larga escala, o de 10 megabits, também chamados de 10BASE-5. Ele usava um único cabo coaxial grosso e pouco flexível, chamado de thicknet, que interligava todas as estações de trabalho. Esse cabo era ligado num transceptor que ainda possuía um conector AUI de 15 pinos, interligando o transceptor à placa de rede.
Pois é, assim vocês já podem imaginar o incômodo que era essas redes. Não eram nada práticas! Assim, foi desenvolvido o padrão 10BASE-2, que ficou conhecido como thinnet. Era chamado assim por que o fio usado era mais fino que no padrão anterior, por isso thin, que significa “fino”, diferindo do thick, que significa “grosso”. E já que estou falando de nomenclaturas, vou explicar o porquê do 10BASE-5 e 10BASE-2. Esse nome é, na verdade, a junção de três informações: o 10 diz respeito à taxa de transmissão, 10 megabits; o BASE é a abreviação de baseband modulation, indicando que o sinal já era transmitido de forma digital, sem a necessidade do uso de modems, como o sistema telefônico e, por fim, o número no final indica a distância máxima alcançada pelo sinal. No caso de 10BASE-5, o alcance máximo do cabo é de 500 metros, enquanto que no 10BASE-2 o cabo transmite o sinal a até 185 metros, é que eles arredondaram. Com as nomenclaturas devidamente explicadas, continuemos…
As redes thinnet, configurando o padrão 10BASE-2, apesar de terem um alcance menor, eram mais práticas e, portanto, mais fáceis de trabalhar. Além de serem mais baratas. O seu cabo mais fino, o RG58/U era mais flexível e aquele transceptor gigante das redes 10BASE-5 foi miniatuarizado e movido para dentro da placa de rede. As estações de trabalho eram interligadas umas as outras através dos cabos conectados em forma de “T”.

Esse terminador (terminator) que você vê na segunda imagem, era usado nas extremidades da rede, para que o sinal não voltasse em forma de interferência. Apesar de mais prática e mais barata, as redes 10BASE-2 ainda eram muito suscetíveis a falhas, como, por exemplo, se um cabo fosse desconectado ou rompesse, toda a rede saia do ar, e como não havia LEDs indicadores de conexão, era muito trabalhoso identificar onde estava o problema na rede.
A evolução continuou e logo vieram os padrões de 100 e 1000 megabits, que ao invés de cabos coaxiais, utilizavam cabos de par trançado. Estes, ainda mais finos, ainda mais flexíveis, ainda mais baratos e têm um alcance ainda mais curto! De apenas 100 metros. Existem várias categorias deles e todos possuem um uso específico. A principal vantagem deles em relação aos cabos coaxiais é o suporte de maiores velocidades, inclusive ao novíssimo padrão de 10 Gigabits!
A evolução natural deles são os cabos de fibra óptica, que como vocês já podem imaginar, são ainda mais finos, ainda mais flexíveis, suportam velocidades ainda mais altas e não, não têm um alcance menor. Eles podem transmitir a até 2 Km! E usando-se repetidores de sinal, a distância se torna ilimitada. Seu custo ainda é alto, o que, na minha opinião, é o fator principal deles não terem se popularizado ainda. Os cabos de fibra óptica são mais usados na criação de backbones que interligam os principais roteadores da internet.
Por que não falar também das redes wireless e seus primórdios? Apesar delas não usarem cabos, elas se valem de um meio de transmissão comum, o ar. E elas também passaram por uma evolução e aperfeiçoamento. Acredito que assim como eu, vossas senhorias ficarão impressionados com a origem desta modalidade de acesso à grande rede.
A primeira rede wireless, acredite se quiser, foi montada em 1970! Exatamente! Quase que concomitantemente com a primeira rede cabeada! Ela foi feita pela ALOHAnet e interligava computadores no campus da Universidade do Havaí, que se encontravam em ilhas diferentes. Usando tecnologia de rádio amador, os sinais eram mandados para um transmissor central que retransmitia a mensagem aos demais computadores conectados.

Até a história do engenheiro que desenvolveu a primeira rede wireless é curiosa. O nome dele é Norm Abramson e ele ensinava engenharia na faculdade de Stanford. Só que o cara curtia muito o surf, e ligou para a Universidade do Havaí perguntando se eles não estavam precisando de um professor de engenharia por lá… Em 1969 ele se muda e em 1970 funda a ALOHAnet, interligando os computadores entre as ilhas, e em 1971 recebe um terminal IMP para conectar sua rede wireless a recém-fundada ARPANET! Virei fã desse cara!
Hoje, 40 anos depois da ALOHAnet, as redes wireless já conseguem transmitir (teoricamente) a até 300 megabits, com o padrão 802.11n e estão cada dia mais populares!

terça-feira, 14 de setembro de 2010

Excelente ferramenta para tradução em tempo real

VOCÊ VAI ESCREVENDO A PALAVRA, OU MELHOR, FRASES INTEIRAS EM QUALQUER IDIOMA, E A TRADUÇÃO VAI APARECENDO AO LADO AUTOMATICAMENTE!!!



AGORA VOCÊ TENDO UM NOTEBOOK NA MÃO VOCÊ PODE VIAJAR PARA QUALQUER PAÍS, E FALAR QUALQUER LINGUA.

ESPERO QUE APROVEITEM...

http://tradukka.com/

Curso básico de redes – parte 1

Este artigo é uma colaboração do leitor Felipe Alencar, do blog Onisciência. Agradecemos! Deseja colaborar também? Envie um e-mail para pauta@guiadopc.com.br.

Introdução

Hoje existem dois mundos. O mundo real. E o mundo virtual. Não sei se real é a denominação correta que posso dar ao primeiro, talvez físico seja mais adequado, mas o fato é que esses dois mundos existem e estão cada dia mais interligados! Sei que esse papo é meio filosófico e nos remete a Matrix (que já está fora de moda, o lance agora é A Origem), mas a Internet está cada vez mais presente na vida das pessoas. Muitos não sabem ou não conseguem mais viver sem ela!
Mas enquanto muitos batem papo, namoram, fazem putaria, roubam, pirateiam, aprendem (ou se alienam, em alguns casos), poucos sabem como tudo isso é realmente possível. Como que é possível eu baixar músicas que estão em discos rígidos situados em locais que eu não faço a menor idéia de onde estejam!? Como que eu posso imprimir numa impressora que está noutro cômodo!? As possibilidades são praticamente infinitas, mas todas elas existem graças à Internet e às redes! No mundo virtual atendo por O Onisciente, no mundo real me chamo Felipe Alencar e estudo essa nóia toda, dentre outras coisas, e pretendo compartilhar com vocês, do Guia do PC, o pouco conhecimento sobre redes que eu tenho.
A partir deste post, inicio uma série, ou um curso, como queiram chamar, sobre esse fascinante mundo de possibilidades praticamente infinitas! E pretendo abordar o tema de uma forma não tão profunda, técnica demais, que se torne chato, mas também não tão básica, que se torne por demasiada simplória. Bom, espero que eu não me empolgue e acerte na dose. Vamos começar com um pouco de história.

Um pouco de história

Levando em conta o conceito de redes, a saber, interligar dois dispositivos de forma que eles possam compartilhar informações e serviços, podemos afirmar que as redes de computadores existem há muito tempo, antes mesmo do ENIAC até. Mas as redes como as conhecemos hoje, com seus padrões e diferentes tipos de cabeamento, começaram a tomar forma ainda durante a década de 60, mais especificamente em 1969. Nesse ano surgia a ARPANET (ARPA Network), inicialmente com apenas quatro nós, denominados de SRI, UCLA, UCSB e UTAH, situados respectivamente em Stanford, na Universidade da Califórnia, na Universidade de Santa Bárbara e na Universidade de Utah e transmitiam a 50 kbps, o que era uma velocidade impressionante para links de longa distância na época.
Esta rede era apenas para fins de teste. No entanto, ela foi tão bem implementada e funcionava de maneira tão satisfatória e segura que em apenas quatro anos, em setembro de 1973, ela já interligava trinta instituições, de universidades a empresas e órgãos militares! Abaixo vemos um mapa lógico da rede nesse período:

Ainda nesse ano, 1973, era desenvolvida, pela Xerox, uma importante tecnologia de interconexão para redes locais que futuramente iria se unir a ARPANET. Estou falando da Ethernet, cuja primeira transmissão bem sucedida foi feita nesse mesmo ano. Falarei mais sobre ele daqui a pouco.
No ano seguinte, 1974, foi dado origem a dois protocolos importantíssimos! O TCP e o IP, que juntos, se tornaram os protocolos padrão para uso na ARPANET e, posteriormente, na Internet, estando em vigor até hoje.
Essa rede possibilitou a vários pesquisadores e técnicos a fantástica oportunidade de compartilharem informações e conhecimento, tendo como resultado o desenvolvimento de tecnologias que usamos até hoje, tais como o e-mail e o FTP, só para citar algumas.
A rede aumentou de maneira tal, que já estava se tornando difícil manter e distribuir a lista dos hosts conectados a ela, de modo que na década de 1980 foi criado o DNS (Domain Name System), com o intuito de dar nomes mais “amigáveis” aos hosts conectados na rede. Tal sistema, que só pra constar, faz parte da pilha de protocolos TCP/IP, continua a ser usado até hoje!
Como já mencionei, a tecnologia de interconexão para redes locais Ethernet estava sendo desenvolvido pela Xerox. A primeira transmissão ocorreu a 2.94 megabits por segundo. Mas logo essa velocidade aumentou e surgiram as redes de 10 megabits, que foram usadas em larga escala. A partir de então, elas não pararam de evoluir.
Originalmente, os projetos ARPANET e Ethernet eram duas coisas distintas. O primeiro interligava servidores entre universidades e o segundo interligava computadores numa rede local. Logo se percebeu que numa rede local todos os computadores poderiam compartilhar a conexão e acessar a internet. Assim, progressivamente, esses dois projetos foram se unindo e tornaram-se o que são hoje: praticamente uma coisa só! É extremamente difícil encontrar um uso para um computador desconectado da grande rede e é mais difícil ainda se deparar com uma rede local onde pelo menos um computador não seja o servidor de internet… enfim, a ARPANET, hoje Internet e a Ethernet caminham juntas, de mãos dadas.

Esta foi uma breve história sobre o surgimento das redes, espero que tenham gostado e até o próximo post!

sexta-feira, 10 de setembro de 2010

Criar Pendrive Bootavel apartir de CD de Boot

Nós que trabalhamos com informática não sabemos quando uma ferramenta será útil ou não, mas uma coisa é certa; algum dia será útil! É o caso do FlashBoot, um utilitário que permite gerar um pendrive b...

Publicado em: 10 de setembro de 2010
Leituras: 320
Canal: Hardware
Autor: Marciano Dias
 
Neste tutorial ensinarei passo a passo como criar um pendrive bootavel apartir de um CD de boot. Para isso utilizaremos o Shareware FlashBoot.

Vamos ao tutorial
Você pode adquirir a versão demo do programa Flashboot aqui.

Instale o programa em seguida execute-o.
http://www.oficinadanet.com.br/artigo/hardware/criar_pendrive_bootavel_apartir_de_cd_de_boot?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+oficinadanet_rss+%28Oficina+da+Net+-+Feed%29

quinta-feira, 9 de setembro de 2010

Instale todos os seus freeware favoritos de uma vez só

Rick Broida, da PCWorld EUA

08-09-2010

Ninite automatiza a tediosa tarefa de reinstalar aplicativos em um novo PC
Esteja você migrando do Windows XP para o Windows 7 ou comprando um novo PC, terá de enfrentar a mesma tarefa tediosa: reinstalar todos os seus aplicativos.
Isto significa lidar com pilhas de CDs e/ou baixar programas de vários sites, e instalar um de cada vez. Não sei quanto a você, mas eu consigo pensar em formas melhores para gastar várias horas do meu dia.
Mas o Ninite (http://www.ninite.com/, gratuito) resolve o problema: ele é um serviço que cria um instalador personalizado, que vai colocar de uma vez só em seu computador todos os programas freeware e open-source que você quiser. Escolha entre as dezenas de títulos disponíveis - do anti-vírus AVG Free ao Dropbox, OpenOffice e uTorrent - e deixe o programinha fazer o tabalho pesado.


Depois de iniciar o instalador, basta relaxar. O Ninite automatiza todo o processo, o que significa que você sequer terá de ficar clicando “Next” um monte de vezes. Melhor ainda: o programa escolhe automaticamente a versão mais recomendada (32 ou 64-Bit) dos aplicativos para o seu computador, e impede a instalação de quaisquer toolbars ou “brindes” indesejados que os fabricantes de software costumam tentar empurrar.

quarta-feira, 8 de setembro de 2010

Baixe agora: Firefox 4 beta 5

Posted: 07 Sep 2010 02:33 PM PDT


Enquanto no Brasil é comemorado o feriado de independência do país, a Mozilla liberou a quinta versão de testes do Firefox 4 para download. Dentre as mudanças em relação ao beta 4, estão: aceleração por hardware habilitada por padrão e novo desenho do menu “Firefox” para usuários dos Windows Vista e Sete. Download disponível em português do Brasil, para Windows, Mac OS X, e Linux. Quem já está usando a versão beta, pode se atualizar pelo próprio programa, no menu Ajuda, Verificar por atualizações. A versão final, se tudo correr como planejado, deve ser lançada até o final do ano. Via Neowin.

http://www.guiadopc.com.br/

domingo, 5 de setembro de 2010

Rede social Ping, da Apple, atinge 1 milhão de usuários em 48 horas

http://www.apple.com/itunes/ping/

Um punhado de horas atrás a Apple atingiu um marco rapidamente: mais de um milhão de usuários do Ping nas primeiras 48 horas de vida no ar. Isso representa um terço dos 3 milhões que baixaram o novo iTunes 10. O vice-presidente de serviços da Internet da Apple, Eddy Cue, espera que este número cresça muito mais, já que "muito mais pessoas" estarão susceptíveis a baixarem o aplicativo.

A adoção foi muito rápida para uma rede social incipiente, e este número foi ajudado principalmente pela grande base de usuários atuais de produtos Apple. Com mais de 160 milhões de pessoas portadoras de cartões de crédito usando o iTunes, e portanto garantidas para serem anexadas a um Apple ID, o Ping fará pouco esforço para ter uma significante porção de usuários online. Os clientes poderão usar tanto o computador quanto o iPhone, iPod ou iPad para checarem o Ping.



Mas ainda fica a dúvida se a Apple competirá com as grandes e puras redes sociais. O Facebook está isolado na liderança, com 500 milhões de usuários, o Orkut com pouco mais de 100 milhões, e o MySpace possuía em junho 66 milhões de usuários - mas este último poderá cair por terra com o invento da Apple, já que ambos possuem essa integração de rede social com música.

A Apple certa vez deixou claro que o primeiro objetivo do Ping é a descoberta da música, e não a competição direta. Nesse meio tempo, o Ping já ultrapassou a rede similar da sua arqui-rival, o Zune Social.



Revista PnP

Visite nosso site: www.revistapnp.com.br

Ainda não conhece a Revista PnP? Venha conhecê-la e temos certeza de que gostará!

Prezados visitantes,

O site da Revista PnP recebe milhares de visitantes diariamente, em busca de informação e de soluções para as dificuldades com seus computadores e sistemas. Todas as questões que nos chegam são respondidas, dentro das nossas posibilidades, e as mais comuns ou interessantes passam a fazer parte da próxima edição da Revista PnP ou então vão para a seção Dicas Técnicas em nosso site.



Micros ficam dando pau direto e outras dicas técnicas enviadas pelos leitores da Revista PnP


http://www.revistapnp.com.br

sábado, 4 de setembro de 2010

Promoção: VOCÊ QUER GANHAR UM IPAD OU 100 LIVROS


PROMOÇÃO VAI ATÉ 18/09/2010

IFA 2010: Olhar Digital em uma das maiores feiras de tecnologia do mundo

Evento teve início ontem 03/09 pela parte da manhã. Lançamentos de grandes marcas serão anunciados nos próximos 5 dias.

Sábado, 04 de setembro de 2010 às 12h28
Igor Lopes - Olhar Digital

Que a Alemanha é palco de muitas revoluções e inovações tecnológicas, ninguém tem dúvidas. A indústria automobilística, por exemplo, tem grandes marcas alemãs. Quando se pensa em áudio e vídeo, também é fácil se lembrar de empresas que surgiram no país. E essa evolução acabou criando história. Tanto é que uma das maiores e mais tradicionais feiras de tecnologia do mundo - a IFA - acontece em Berlim, e o Olhar Digital veio acompanhar de perto o que está rolando no evento este ano. Para início de conversa, a IFA tem uma cara um pouco diferente das outras feiras de tecnologia do mercado. O público comum, como eu ou você, desempenha um papel fundamental por aqui. Todo mundo é convidado a experimentar os novos lançamentos que estarão à venda nos próximos meses. É para sentir, na prática, se eles atendem ou não às suas necessidades.
Esta é a edição de número 50 da IFA. Em anos anteriores, a feira já foi responsável pelo lançamento de vários produtos que hoje estão na casa de todos nós. Só para se ter uma ideia, foi na IFA de 1928 que demonstraram, pela primeira vez no mundo, uma transmissão em aparelho de TV. Em 1937, a primeira TV colorida também foi mostrada na feira. E os exemplos não valem só para o mundo da imagem: também foi na IFA que o primeiro rádio para carros, os primeiros CDs, video-conferências e celulares do mundo foram apresentados para os consumidores. E o que um dia foi mostrado aqui como novidade, hoje está aí, ao alcance dos dedos de qualquer pessoa.
Para nós, brasileiros, o tamanho de uma feira dessas assusta. É como se a gente tivesse cerca de 20 prédios da Bienal ou pavilhões do Anhembi reunidos de uma só vez, todos eles exibindo produtos tecnológicos ao mesmo tempo. Haja perna e disposição para acompanhar tanto lançamento de produto!
A edição deste ano conta com 6500 expositores e mais de 21 mil jornalistas do mundo inteiro. Numa primeira passeada já é possível afirmar, sem medo de errar: esta é a edição dos produtos 3D. No que depender dos fabricantes, a plataforma chegou para ficar e são vários os artifícios programados por eles para fisgar você e o seu bolso com as novidades apresentadas. Também é a feira dos tablets, que chegaram com todas as forças na disputa por uma fatia do mercado. O Olhar Digital mostrará cada cantinho da IFA 2010. Se você quiser saber antes de todo mundo o que vai chegar em suas mãos daqui alguns meses, ou alguns anos… é só ficar de olho em nossos próximos vídeos e notícias. Também estamos participando de alguns workshops exclusivos com convidados especiais.
*O jornalista viajou a Berlim para a cobertura da IFA, a convite da Philips.
http://olhardigital.uol.com.br/produtos/mobilidade/celulares-verdes-sao-uma-alternativa-para-diminuicao-do-lixo-eletronico/13748

FluentNotepad: um bloco de notas com Ribbon

Posted: 03 Sep 2010 04:55 AM PDT

No Windows 7 a Microsoft “ribonizou” alguns aplicativos clássicos do Windows, como Paint e WordPad. Mas e se o velho Notepad, ou Bloco de Notas em bom português, tivesse interface Ribbon? A resposta seria algo muito próximo a isso:

FluentNotepad: o velho bloco de notas com Ribbon

A imagem acima não é apenas um conceito, e sim um programa conhecido pelo nome FluentNotepad e que pode ser baixado do site DeviantArt. Ele traz alguns recursos extras, como itálico, negrito, cor da fonte e posicionamento do texto, mas nada comparado a um editor de texto profissional como o Microsoft Office ou o gratuito OpenOffice. Não se engane, é apenas o velho e limitado bloco de notas do Windows com uma vaga lembrança do Office 2010.
Gratuito, o FluentNotepad atualmente está em estágio beta de desenvolvimento. O programa tem pouco mais de 400 KB e não precisa instalar. Requer o Microsoft .NET Framework 4 para funcionar.

sexta-feira, 3 de setembro de 2010

Notebook Asus N61J vai de USB 3.0

Modelo tem configuração arrasadora, com chip Core i5, e custa 2.999 reais.
http://info.abril.com.br/aberto/infonews/tags/juliano_barreto_e_renan_frizzo1.shtml


Com artilharia pesada no hardware, incluindo processador Core i5 e disco de 640 GB, o grandalhão com tela de 16 polegadas N61J, da Asus, inova por usar uma porta USB 3.0 e a tecnologia Nvidia Optimus, para economia de energia. Nos testes, a velocidade de transferência de dados da nova porta foi surpreendente, chegando a 106 MB/s. Por contar com tudo isso e custar 2.999 reais, o notebook é uma das melhores opções da atualidade, levando em consideração o custo/benefício. O modelo deve chegar às lojas este mês, segundo previsão da fabricante.
As teclas desse laptop estão configuradas no padrão internacional, e o equipamento ainda possui um teclado numérico à direita. Seguindo o estilo dos Macbooks e Vaios, as teclas vazadas do N61J são largas e espaçadas. O touchpad também não economiza no tamanho e ainda possui recursos multitoque, como zoom e rolagem de páginas. Alguns controles multimídia ficam posicionados logo acima do teclado, assim como teclas de função para acessar a câmera e mudar o perfil de energia.
Nas conexões, o Asus N61J arrebenta. Além da porta USB 3.0, ele possui outras três USB 2.0 (sendo que uma trabalha também como eSATA), interface de rede Gigabit Ethernet, Wi-Fi no padrão 802.11n, Bluetooth, leitor para cartões SD e slot para Express Card 34. As saídas HDMI e D-Sub são as conexões de vídeo presentes. Os alto-falantes apresentam som cristalino, mas com poucos graves. Com o recurso SRS Premium Sound ligado, a qualidade para ouvir música melhora consideravelmente.
Desempenho de ponta
O Asus N61J tem ótima configuração para a categoria. Começando pelo processador Intel Core i5-520M, de 2,4 GHz, o modelo ainda traz memória RAM de 4 GB e disco rígido de 640 GB. O conjunto roda Windows 7 Home Premium de 64 bits, e o drive óptico é um gravador de Blu-ray. A placa de vídeo dedicada GeForce GT325M e o chip Intel GMA trabalham em conjunto com a tecnologia Optimus. Mas como a seleção entre uma e outra é feita automaticamente, o modo de economia de energia pode prejudicar o desempenho, quando acionado na hora errada.
Nos testes do INFOLAB com os benchmarks, o N61J obteve bons resultados. Com Índice de Experiência marcando 4,5, ele fez 6.125 pontos no PCMark Vantage. No 3DMark06, que mede o desempenho da máquina com gráficos em terceira dimensão, anotou 1.886 pontos. A limitação por causa do Optimus é evidente. Infelizmente, mesmo com toda essa força, algum item tinha que destoar do conjunto. E a bateria foi a responsável por isso. Durante uso intenso, ela aguentou apenas 52 minutos rodando o programa Battery Eater 05. Veja nos gráficos abaixo como o Asus N61J se saiu frente com alguns adversários:

PCMark Vantage (em pontos)
http://info.abril.com.br/reviews/

Google libera versão final do Chrome 6

Quinta-feira, 02 de setembro de 2010 às 19h00


Após comemorar seu segundo aniversário, o Google Chrome liberou nesta quinta-feira, 02/09, a versão final de sua sexta edição. Disponível para Mac OS X, Windows e Linux, o navegador apresenta novidades na interface, além de maior velocidade e estabilidade.

O tom azul do browser foi substituído pelo acinzentado e no menu de ferramentas, o botão de acesso às configurações da página e de ajustes gerais se uniram. As áreas de edição e zoom agora contam com ajustes dentro do próprio menu.

O Chrome 6 já está disponível para download e ao que tudo indica, a próxima versão, já em fase de testes, deverá chegar aos usuários em breve.
http://olhardigital.uol.com.br/produtos/mobilidade/celulares-verdes-sao-uma-alternativa-para-diminuicao-do-lixo-eletronico/13742

quarta-feira, 1 de setembro de 2010

Como criptografar uma partição do HD

Encrypting hard disk partition

Autor original: Jesse Smith
Publicado originalmente no: distrowatch.com
Tradução: Roberto Bechtlufft
Pergunta do leitor preocupado com a privacidade de seus dados: Como posso criptografar uma partição?
Resposta: Para começar, precisamos de uma partição para trabalhar. Vamos presumir que você tenha uma partição livre no HD chamada sda4 (/dev/sda4). Se não houver uma partição sobrando, use uma ferramenta como o GParted para diminuir uma partição existente e criar uma nova no espaço liberado (lembre-se de sempre fazer backup de seus dados antes de mexer nas partições).
Agora que temos uma partição para nossos testes, vamos configurar a criptografia nela. Para isso usamos o comando cryptsetup, que prepara a partição. Se ele não estiver instalado, confira se o repositório de software permite instalá-lo. Não se esqueça de que você precisa ter privilégios de administrador no computador para realizar estes comandos. O primeiro comando configura a partição a ser criptografada:

cryptsetup luksFormat /dev/sda4

Aqui o sistema pede a senha que vai proteger seus dados, então escolha algo bem difícil de adivinhar, mas que seja fácil de lembrar. A próxima etapa é acessar a partição recém-criptografada e dar um nome a ela. Mais uma vez usamos o cryptsetup, desta vez para abrir a partição:

cryptsetup luksOpen /dev/sda4 confidencial

Será pedida a senha que você criou na etapa anterior. Se tudo correr bem, a partição criptografada em sda4 será aberta, e receberá o nome "confidencial". Agora, vamos gravar um sistema de arquivos do Linux nessa partição. Para isso, usamos:

mkfs.ext3 /dev/mapper/confidencial

Pronto, nossa partição está usando o sistema de arquivos ext3. Com a partição formatada, podemos seguir em frente e usá-la. Temos que criar um ponto de montagem:

mkdir /mnt/cripto

Agora podemos montar a partição:

mount /dev/mapper/confidencial /mnt/cripto

O sistema de arquivos em /mnt/cripto está pronto para armazenar nossos dados confidenciais. Acabado o trabalho, temos que desmontar a partição e fechar o dispositivo criptografado.

umount /dev/mapper/confidencial


cryptsetup luksClose /dev/mapper/confidencial

É importante fechar a partição, do contrário outra pessoa pode remontá-la sem precisar da senha. De agora em diante, para obter acesso aos dados criptografados, use:

cryptsetup luksOpen /dev/sda4 confidencial


mount /dev/mapper/confidencial /mnt/cripto

É claro que repetir esse procedimento a cada inicialização pode ficar meio entediante... portanto, se quiser montar a partição automaticamente e fazer com que o sistema peça a senha quando iniciado, inclua entradas nos arquivos /etc/crypttab e /etc/fstab. A entrada em /etc/crypttab pode ser mais ou menos assim:

confidencial /dev/sda4 none luks,check=ext3

E a entrada em /etc/fstab pode ficar deste jeito:

/dev/mapper/confidencial /mnt/cripto ext3 defaults 0 0

Obviamente, se você estiver realmente preocupado em esconder seus dados de curiosos, não é uma boa dar nomes como "cripto" e "confidencial" aos dispositivos e pontos de montagem. Isso é como fazer propaganda de sua partição criptografada. É melhor escolher algo bem sem graça, como "temp", "cdrom", "sys" ou outra coisa que não chame a atenção caso alguém esteja espiando a tela. Também recomendo a leitura do manual do cryptsetup (man cryptsetup). A documentação é bem organizada e oferece dicas e opções úteis.
Há outras coisas interessantes que você pode fazer para manter seus dados escondidos. Se estiver preocupado com a possibilidade de notarem sua partição e tentarem acessá-la, experimente uma tática diferente, como criar um dispositivo de loopback com um arquivo local e criptografá-lo. O arquivo de loopback pode ser armazenado em qualquer lugar, inclusive em um diretório oculto. Os mais paranoicos podem manter arquivos criptografados dentro de um arquivo criptografado e oculto. Mas, como sempre acontece nessas questões de segurança, exageros tornam as coisas mais inconvenientes do que realmente práticas.
Créditos a Jesse Smith - distrowatch.com
Tradução por Roberto Bechtlufft
http://www.guiadohardware.net/dicas/criptografar-particao.html