O documento resume os fundamentos da informática, incluindo: (1) a definição de informática e seus conceitos-chave como entrada, processamento e saída de dados; (2) a história dos computadores desde as máquinas mecânicas até os dispositivos modernos; e (3) a representação binária e hexadecimal de dados no sistema digital.
2. Sumario
➢
➢
Conceito de informática: Funções,
conceitos fundamentais.
Histórico dos computadores: Tipos de
Computadores.
➢
Representação de dados :
Sistemas Binários e hexadecimal, conversão
de dígitos binários em caracteres, Códigos de
caracteres.
➢
Lógica proposicional
3. Conceito da informática
A informática é a ciência que tem como
objetivo estudar o tratamento da
informação através do computador. Este
conceito ou esta definição é ampla devido
a que o termo informática é um campo de
estudo igualmente amplo. A informática
ajuda ao ser humano na tarefa de
potencializar as capacidades de
comunicação, pensamento e memória.
4. Processamento de dados
Processamento de dados:consiste em
realizar um processo sobre qualquer dado de
entrada(input) com o objetivo de gerar uma
saída aceitável ou próxima disso. Em
qualquer atividade humana, verifica-se que a
resolução dos problemas consiste em uma
série de tarefas, das quais as fundamentais
são: decidir o que é equalizar as operações.
5. Funções:
➢
➢
Desenvolvimento de novas máquinas;
Desenvolvimento de novos métodos de
trabalho;
➢
Construção de aplicações automáticas;
➢
Melhoria dos métodos.
6. Conceitos fundamentais
Entrada → processamento → saída
➢
➢
Dados: são uma representação dos
factos, conceitos ou instruções de
uma maneira normalizada que se
adapte à comunicação , interpretação
e processamento pelo ser humano ou
através de máquinas automáticas
Informação:é todo o conjunto de
dados devidamente ordenados e
organizados de forma a terem
significado.
7. Historia dos computadores
O primeiro equipamento eletrônico com as
mesmas características que um
computador, surgiu na segunda Guerra
Mundial, e se chamava Marki e ocupava
120m³.
8. 1ª geração (1940-1952)
-a base das válvulas, aplicação cientifica e
militar.
2ª geração (1952-1964)
-substituição de válvulas por transistores,
aplicação cientifica, militar, administrativa e
governamental.
3ª geração (1964-1971)
-evolução do software , surgem os
CI,encapsulamento dos transistores.
9. 4ªgeração (1971-1981)
-nasce o microprocessador, fabricação em
larga escala, disquete é utilizado como
unidade de armazenamento externo.
5ª geração (1981-200*)
11. Tablet
mesmos funcionalidades do smart phone,
formato de livro mainframes,
supercomputadores, atender sistemas
bancários e controle de voos espaciais
12. O computador é divido em
três partes:
Hardware (parte física)
Software (conjunto de instruções
processadas)
Peopleware (usuários)
13. Representação de dados
A criação de números veio com a
necessidade de contar, seja numero,
animal, alimento.
O primeiro sistemas de numeração fez-se
o uso das bases 10 (decimal) e 20
(vigesimal). Computadores usam “chaves
elétricas” para representar números e
caracteres.
14. Cada chave possui apenas 2 estados,
lidado/desligado,computadores “pensam”
usando apenas 2 dígitos, 0 e 1 (0 para
desligado 1para ligado), chamado
linguagem binaria.
15. Sistema binário
No sistema binário. Cada numero é
representado mediante uma combinação
de símbolos 0 e 1,ou seja, estado 0 e
estado 1 dos bits que formam um conjunto
ordenado no computador, bit representa a
sua menor unidade de processamento.
Quando se tem um conjunto formado por 5
bits chamamos por convenção de bytes.
16. Sistema hexadecimal
Como já visto, o computador usa o sistema
binário para representar dados,por isso se
usa uma forma mais compacta de 4 bites
(hexadecimal). No sistema hexadecimal,é
possível representar 16 números,os
simbolos utilizados
são:0,1,2,3,4,5,6,7,8,9-----> A.B,C,D,E,F.
17. Conversão de dígitos binários em
caracteres
Sabemos que o computador só processa e
armazena dígitos binários.
Códigos de caracteres:
EBCDIC (extended binary caded decimal
code) é uma cadeia de 8 bits usado
principalmente por mainframes.
18. Unicode:é um padrão para codificação que
utiliza uma cadeia de 16 bits o que
possibilita representar 65000 caracteres,
possibilitando representar diversoas dioma.
ASCII (america standard code for
information exchange), representado por 5
bits, desenvolvido a partir de 1960,
representa texto em computador,
equipamentos de comunicação ,e etc.
19. Logica proposicional
Proposição:conjunto de palavras ou
símbolos que exprimem um pensamento
de sentido completo.
Na proposição podemos assumir um valor
verdadeiro ou falso.
Tipos de conectivos:
conjunção, disjunção,negação e implicação
20. Para ser proposição,é necessário ser uma
frase afirmativa que seja possível
classificar verdadeira ou falsa.
A logica se baseia em 3 leis:
1º se é verdadeira, então ela é verdadeira
2º não pode ser verdadeira e falsa ao
mesmo tempo
3ºou é verdadeira,ou falsa