Arquivo

Arquivo de julho, 2011

Gerenciando tablespaces no Oracle 11g – Parte I

31, julho, 2011 8 comentários

Um banco de dados é armazenado logicamente em uma ou mais tablespaces que, por sua vez, é armazenada fisicamente no disco em um ou mais arquivos para cada tablespace. Devemos ser capazes de alocar corretamente os arquivos, ter controle do crescimento e saber quando agir. Você sabe onde estão os seus tablespaces ? Sabe o tamanho deles ? Eles estão no mesmo disco ? Enfim, pretendo fazer dois artigos com informações de gerenciamento de tablespace no banco de dados Oracle.

É de grande importância que as tablespaces estejam em discos diferentes, que tenha algum método de RAID e/ou melhor, que seja gerenciado pelo ASM (Automatic Storage Management), assim podemos garantir garantir um alto nível de desempenho, disponibilidade e facilidade de recuperação. Entretanto, devemos distribuir em vários discos seus arquivos de dados, mantendo cópias espelhadas dos archive logs e control files.

Smallfile X Bigfile

A partir da versão do 10g, é possível criar um tipo de tablespace, chamada bigfile. Essa novidade também se aplica no Oracle 11g. Com esse novo recurso, podemos criar um arquivo de dados de terabytes, utilizando a opção bigfile. A tablespace bigfile, contém somente um arquivo de datafile ou um tempfile, que contém aproximadamente 4 bilhões de blocks. O tamanho máximo de um único datafile ou temfile é de 128 terabytes, para uma tablespace de 32k de blocos e 32TB para uma tablespace com 8k blocos.

Já a tablespace smallfile é padrão, que pode contém 1022 datafiles ou tempfiles, cada uma podendo ter aproximadamente 4 milhões de blocos.

Como no próprio site da Oracle, existe algumas restrições na criação do bigfile, as mais importantes são: Você só pode especificar apenas um datafile na cláusula DATAFILE e/ou na TEMPFILE, Você também não pode especificar EXTENT MANAGEMENT DICTIONARY.
Leia mais…

Tags:

Review do evento GUOB TECH DAY 2011



Na data de 16/07/2011 foi realizado o encontro do Grupo de Usuário de Tecnologia Oracle do Brasil, que tem como missão congregar usuários e demais interessados na tecnologia Oracle, promover a troca de experiências e conhecimentos técnicos, divulgar novos produtos e encaminhar solicitações de seus associados junto a Oracle. Este ano o GUOB completou o seu segundo ano de vida e com forte apoio da OTN.

O evento foi realizado na cidade de São Paulo, no Hotel Blue Tree Morumbi.

Logo quando cheguei fui recepcionado e feito o credenciamento, ganhando uma pasta com alguns folders dos patrocinados e brindes da Oracle.

Fomos direcionados para a sala principal com a abertura/introdução pelo Eduardo Hahn, presidente do GUOB. Fez uma breve descrição de como seria o dia, anunciou que teríamos alguns sorteios, horários e muito mais.

Após a abertura com Eduardo Hahn, entrou em cena o Pablo Ciccarello, diretor da OTN. Falou sobre o site da OTN, onde você pode  encontrar conteúdo em português como documentações, artigos técnicos, informações de Grupos de usuários Oracle  (GUOB, GUORS, Oraug-br), informações do programa Oracle ACEs e uma coisa que chamou a atenção de algumas pessoas, foi que se você contribuir com algum artigo, você poderá receber uma quantia de aproximadamente 1.500 dólares, olhei em volta e vi vários olhos brilhando rsrsrs.

Logo após a saída do Pablo, entrou em cena o experiente Graham Wood, mostrando em tempo real o carga de 1TB em uma exadata X2-2, levando 8 bilhões de linhas/registros em menos de 9 minutos, pouco ? Após isso, ele fez coleta de estatísticas das 8 bilhões de linhas/registros e levou menos de 4 minutos!!!! Gastando 20 minutos para montar um Data WareHouse. Após tomar uma água, voltou para falar sobre Hidden Features do 11g, que ainda não são utilizadas e algumas não documentadas pela Oracle.

Em seguida veio Arup Nanda, falar sobre Exadata Para DBA’s Oracle. Neste momento percebi que todos estavam atentos em todas as palavras que o Arup falava, deixou claro que se você conhece Oracle RAC, você já entende 60% de Exadata e os outros 40% o DBA entende perfeitamente, ele explicou como é formado o exatada, para quem não conhece ainda. De uma forma clara e bem rápida- rápida porque ele falava muiiito rápido!

Houve uma pausa para o almoço e voltamos com três salas disponíveis para escolher, eu decidi ficar com o Mysql – trabalhando com alta disponibilidade e alta performance: Replicação e Cluster com Airton Lastori. Começou falando sobre a história do mysql e foi avançando sobre a alta disponibilidade e perfomance de uma maneira bem dinâmica e fácil compreensão.

Na próxima programação, não entrei em nenhuma sala e bate um papo com grandes profissionais do mundo Oracle, tais como Rodrigo Almeida, Marcus Vinicius, Ricardo Portilho, Eduardo Hahn, conheci também Eduardo Legatti, Thomas Glufke.

Na próxima palestra entrei na sala que estava o Rodrigo Mufalani, admiro o trabalho que ele tem feito no seu blog e não podia perder a oportunidade de escutar sua experiência sobre cerificações Oracle, uma vez que ele é OCA, OCP, OCE RAC e reconhecido como Oracle ACE. Na palestra falou sobre os passos para atingir cada certificação Oracle, como OCA, OCP, OCM. Comentou que para conseguir as certificações que possui hoje, estudou dois livros (que não anotei) e que estudava no ônibus enquanto ia para o trabalho, resumindo, não venha com desculpas falando que não tem tempo para estudar, faça que nem o Mufalani estude no ônibus e se torne o cara no Oracle.

Fiquei na mesma sala e apreciei a aula de Maior disponibilidade com Oracle RAC Extended CLuster com Marcus Vinicius. Foi abordado de forma clara, falou sobre SPOF (Single Point of Failure) e em português, Ponto Único de Falha. Não adianta ter switch, Oracle RAC, links de backup se você não tem um site backup, com essa introdução deu inicio ao Oracle RAC Extended Cluster.

Saindo da sala, entrei na sala que estava o palestrante Thomas Glufke, dono do maior fórum do Brasil de Oracle, falando sobre Oracle EBS, como funciona, onde podemos encontrar informações sobre o tema, enfim, quais são os primeiros passos para dominar o Oracle EBS.

Por fim, tivemos Arup Nanda, com Melhores Práticas para DBA, como ele mesmo disse, na sua visão, tanto que frisou bastante sobre isso, discuntando o padrão OFA, audit Session, entendendo o uso de CPU com selects no banco, restrigindo o LISTENER, Data Pump e como o tempo era curto, ele teve que encerrar, UMA PENA! Na minha opinião o cara é muito bom, não sei como ele não é funcionário da Oracle. O cara fechou com chave de ouro!!!

Abaixo algumas imagens do evento:

Achei muito bom o evento, muito bem organizado, ótimos palestrantes e congressistas. Valeu cada minuto que estava lá. Parabéns a todos e ano que vem, pretendo ir de novo!!!

Um abraço !!!

Tags:

Habilitando o archivelog mode no Oracle 11g

Para efetuar backups online (hot backup), isto é, fazer backup do banco de dados com ele UP, não havendo necessidade de parar o banco para fazer (cold backup). Você precisa ativar o modo archivelog, desta maneira, os redo logs online são arquivados, criando arquivos de log de todas as transações do banco de dados.

O Oracle grava nos arquivos de redo log online de maneira cíclica: após preencher o primeiro arquivo de log, ele começa a gravar no segundo, até que ele esteja cheio, e em seguida, começa a gravar no terceiro. uma vez que o último arquivo de redo log online esteja cheio, o processo em segundo plano LGWR (log write) começa a sobrescrever o conteúdo do primeiro arquivo.

Por default o modo NOARCHIVELOG vem como padrão, ele protege a integridade do banco de dados no caso de falha de uma instância ou uma queda de sistema, porque todas as transações encerradas com commit, mas que ainda não foram gravadas nos arquivos de dados estarão disponíveis nos arquivos de redo log online.

Quando o Oracle está executando no modo ARCHIVELOG, o processo em background ARCn (archiver process) faz uma cópia de cada arquivo de redo log antes de sobrescrevê-lo. Exemplo: se o disco que esta os data files der algum problema, com os archives logs podemos reconstruir o banco de dados até o momento anterior ao problema, devido a um backup recente dos data files e aos arquivos de redo log que foram gerados desde que ele ocorreu. Abaixo, uma imagem para ilustrar o processo ARC, copiando os arquivos do redo log e passando para a localização do archive log.


Leia mais…

Tags:

ORA-00845: MEMORY_TARGET not supported on this system

Ao acessar um banco de dados pelo SQL Developer, apareceu a mensagem informando para verificar as configurações de rede. Verifiquei que a máquina estava com conectividade, efetuei testes com ping, acessei o servidor e fui ver se o background pmon estava rodando:

[[email protected] ~]$ ps aux |grep pmon
oracle 2993 2.0 0.0 4312 728 pts/0 S+ 13:14 0:00 grep pmon

 

Xiii, o banco está parado… Loguei com o usuário sys e me deparo com a mensagem: Connected to an idle instance.

[[email protected] ~]$ sqlplus / as sysdba
SQL*Plus: Release 11.2.0.1.0 Production on Fri Jun 10 11:53:25 2011
Copyright (c) 1982, 2009, Oracle. All rights reserved.
Connected to an idle instance.


Leia mais…

Tags: , ,

Backup: Utilizando Data Pump (EXPDP E IMPDP)

O banco de dados Oracle fornece uma variedade de procedimentos e opções de backup que ajudam a proteger o banco. Não adianta ter ótimas ferramentas e não implementar de maneira adequada e que possa recuperá-los facilmente, com isso, devemos sempre efetuar testes de backup e restore regularmente.

Neste poste vou falar sobre o utilitário Data Pump (impdp e expdp) que realiza backup lógico de um banco de dados que envolve a leitura de um conjunto de registros do banco de dados e a gravação destes em um arquivo. Esses registros são lidos independente das suas localizações físicas.

Você pode exportar todo o banco de dados, tablespaces, usuários específicos (schemas), espaços de tabelas ou tabelas especificas. O arquivo gravado pelo Data Pump export conterá os comandos necessários para recriar completamente todos os objetos e dados escolhidos. Depois que os dados foram exportados por meio do Data Pump Export, eles poderão ser importados por meio do utilitário Data Pump Import. O Data Pump Import lê o arquivo dump criado pelo Data Pump Export e executa os comandos localizados ali. Por exemplo, esses comandos podem incluir um comando create table, create indice e vários inserts.

Vejamos alguns exemplos de como usar o Data Pump como backup.
Leia mais…

Tags: