3. Microsoft e Sybase firmam acordo para lançar
um software de banco de dados.
Acordo:
• Microsoft entra com a credibilidade
• Sybase entra com a tecnologia do DataServe
4. A Ashon-Tate entra na parceira com a Microsoft
e a Sybase e é lançada a primeira versão do SQL
Server.
Objetivo:
• entrar no mercado com força
5. Saída da Ashton-Tate e integração do SQL
Server com o Microsoft Windows, a novidade da
época.
Características:
• suporte ao Windows 3.0
7. Novo conceito de banco de dados, integrado ao
Windows e tornou-se popular e utilizado em
estação de trabalho.
Características:
• interface fácil de usar
• baixa funcionalidade
• utilizado em pequenos departamentos
8. A Microsoft se separa da Sybase e consegue os
diretos da tecnologia.
9. Parte do núcleo foi reescrito pela Microsoft e
resultou em melhor desempenho.
Características:
• utilizado em pequenas aplicações
• custo reduzido em comparação ao concorrentes
10. Microsoft lança versão com melhorias e
correções. Oracle lança uma versão para a
plataforma NT como concorrente direto.
Características:
• suporte ao Windows NT
11. Banco de dados razoavelmente poderoso e com
muitos recursos para negócios pequenos e
médios.
Características:
• utilizados em pequenos e médios negócios
• ferramentas fundamentais de negócio
• facilidade de uso
12. Vasta melhora no desempenho, na
escalabilidade e na confabilidade, que permitiu
a entrada em empresas grande e a posição nº1.
Características:
• banco de dados para empresas grandes
• ferramentas de gerenciamento
• ferramentas de desenvolvimento e análise
13. Integrado ao Framework .NET. Trouxe diversas
ferramentas de análise e administração e
suporte a serviços web. Player do mercado.
Características:
• espelhamento de banco de dados
• maior disponibilidade, desempenho e flexibilidade
• integração com Framework .NET
14. Suporte a novos tipos de dados, novas
ferramentas de administração, análise e de
Business Intelligence. Ampla intergração com
produtos da Microsoft.
Características:
• slogan: “ir um pouco além do relacional”
• facilidade de análise de dados
15.
16. Requisitos de Hardware
A CPU mínima recomendada em que o SQL
Server será executado é um Intel Pentium com
processar de 500 MHz ou similar. A Microsoft
recomenda 1 GB.
17. Requisitos de Hardware
Memória - Todas as edições do SQL Server,
exceto a do Windows Express e das versões
Mobile, exigem um mínimo de 512MB de RAM
onboard. A Microsoft recomenda 1GB ou mais.
18. Requisitos de Hardware
Espaço em disco - Para o SQL Server apenas,
ignorando os arquivos de dados que serão
adicionados, você precisará de 1GB de espaço.
19. Requisitos do Sistema Operacional
Roda no Windows 2000 Professional ou
superior com Service Pack 4 ou em todas as
edições do Windows XP Service Pack 2 ou
superior. Funciona em SO de 64 bits para
Windows XP, assim como nas edições de 64
bits do Windows Server 2008.
23. O recurso Declarative Management Framework
(DMF) entrou em substituição do Surface Area
Configuration que permite criar e executar
diretivas de configuração em um ou mais
servidores de banco de dados.
Outros recursos:
• Multiple Server Interaction;
• Configuration Servers.
24. Mecanismo interno
que permite que seja
utilizado o SQL Server
Agent e o SSIS para
criar uma estrutura
que coleta e armazena
seus dados, além de
oferecer manipulação
de erros, auditoria e
histórico de coleta.
25. Provê informações que antes os administradores
precisavam coletar de diferentes fontes
26. • Recursos de
compactação de
backups;
• Resource Governor:
permite definir os
valores de recursos
que cargas de
trabalho ou
agrupamentos de
cargas de trabalho
poderão usar
durante a execução
27. • Redução do número total de bloqueios
mantido por um processo ao escalonar
bloqueios a partir dos de menor nível de linha
e de página até grandes bloqueios de nível de
tabela. São escalonados bloqueios em nível
de partição antes de em nível de tabela;
• Diversos tipos de novos aperfeiçoamentos de
processamento de consultas para quando a
consulta interagir com tabelas particionadas.
O otimizador de consultas agora pode
executar consultas em partições, como faria
em índices individuais.
28. • Reduzida a quantidade de informações que é
movida pela rede do log de transações do
principal para o log de transações do espelho
ao compacta-las antes do envio para o log de
informações do espelho para proteção;
• Se um banco de dados principal tiver páginas
de dados corrompidas é possível solicitar
uma cópia nova dessas páginas de dados dos
servidores espelhados;
• Hot Add CPU: Permite adicionar novas CPU’s
sem afetar a disponibilidade dos BD’s.
29. • Gerenciamento Extensível de Chaves: permite
que uma estrutura avançada armazene com
segurança as chaves usadas na infraestrutura
de criptografia;
• Criptografia Transparente de Dados: oferece
flexibilidade aprimorada para a criptografia
de dados ao permitir que ela seja uma
propriedade do banco de dados e não
somente o resultado de funções em uma
linha de código.
30. • Aprimorada a ferramenta LINQ do Microsoft
.NET;
• Aprimoramentos referentes ao T-SQL como a
instrução MERGE;
• Novos tipos de dados: GEOGRAPHY,
GEOMETRY e FILESTREAM.
31. • Query Editor aprimorado com IntelliSense e
Debbug integrado.
33. Conjunto de ferramentas que visa extrair,
transformar e consolidar dados de fontes
distintas.
Criação graficamente dos pacotes
simples,contendo uma ou mais etapas,
pacotes com fluxos de trabalhos complexos.
36. • Extrair
• Gerenciar da base de dados
• Extração dos dados
• Construção de relatórios interativos
• Tabulares,
• Gráficos
• Forma livre de fontes de dados relacionais
37. Data Souces
Report Desing
HTML
Report Excel
Builder Web Archive
Report Services PDF
Report Server
TIFF
IIS CSV
Report Service XML
Data Base
Reporting
Manager
43. Situação:
Até dezembro de 2008 o Banco Itaú estava
utilizando apenas máquinas de grande porte
para realizar processos relacionados à Provisão
de Devedores Duvidosos (PDD).
Esta ação é realizada todos os meses e
representa um valor líquido de R$ 164 bilhões.
Em peso se resume em 40 terabytes de
informações e mais de 80 milhões de registros
gerados mensalmente.
44. “São números altamente relevantes e
influenciam diretamente no resultado do Banco”
Eric Cavenaghi, superintendente do Banco Itaú.
45. Além da PDD o Banco Itaú realizava em seus
Mainframes simulações de mudanças nas
políticas de crédito, é através dessas simulações
que o banco pode verificar quais serão os
impactos se a nova política for adotada.
Com a estrutura de TI em Mainframes essas
simulações custavam 48 horas dos analistas
mais R$ 168 mil reais. Um dos motivos se dava
ao sistema não possuir interface, tornando sua
configuração manual e morosa.
46. Um estudo da infraestrutura tecnológica
apontou para mudança para a plataforma
Microsoft Server 2003, todo o sistema foi
reescrito em .Net.
Os 40 terabytes de informação agora estão
sendo processados por 108 processadores dos
servidores de banco de dados MS SQL Server
2008.
Adotaram também ferramentas de BI e
Reporting Services (ferramentas integradas ao
MS SQL Server 2008).
47. Benefícios
PDD
Plataforma
Mainframe
Intel/Microsoft
Tempo de processamento
12 horas 3 horas
“Fechamento”
49. Plataforma
Mainframe
Intel/Microsoft
Tempo dos analistas para
48 horas 0 horas
cada nova simulação
Consumo mensal de
450 horas 40 horas
horas de manutenção
Custo para cada
R$ 168 mil Não foi informado
simulação
Sim (até 8 ao
Simulações simultâneas Não
mesmo tempo)
Tempo de processamento 48 horas 3 horas
Auditoria (logs) Não Sim
50. Frases do Superintendente Cavenaghi
“A partir do final do primeiro trimestre, devemos
realizar todo o processamento de PDD e
simulações de impactos de novas políticas de
crédito no ambiente Windows Server 2003 e SQL
Server 2008”.
51. Frases do Superintendente Cavenaghi
“Ao migrar de Mainframe para a plataforma
baixa, o banco obteve retorno do investimento
em menos de um ano. Além disso, o tempo
gasto na realização das tarefas diminui 75%”.