Negócios & TIC – Tecnologia da Informação e Comunicação
Infra-estrutura sob controle
Gerenciamento de TI e x ec u t i v e
r e p o rt
Sumário
3
Apresentação
4
Conceito
9
Desafios
Só o gerenciamento propicia controle de TI no mundo dos exabytes Inovações e disponibilidade tornam complexa a gestão de infra-estrutura Data Centers exigem conhecimento para prevenir problemas e reduzir custo
17
Soluções
Softwares que auxiliam o CIO na missão que não tem fórmulas prontas
25
Benefícios
33
Cases
Gestão a partir de melhores práticas gera resultados e credibilidade Escolha da solução ideal depende de análise refinada da TI e do Negócio
EXECUTIVE REPORT
E x p edie n t e
EDITORA ASSISTENTE Irene Barella
[email protected]
ASSINATURAS Sueli Souza
[email protected]
DIREÇÃO E EDIÇÃO GERAL Graça Sermoud
[email protected]
DIREÇÃO DE MARKETING Sérgio Ferraz sferraz@conteúdoeditorial.com.br
SECRETÁRIA DE REDAÇÃO Mônica Cruz
[email protected]
DIREÇÃO E EDIÇÃO EXECUTIVA Octavio Tostes
[email protected]
COMERCIAL Patrícia Yochicuni
[email protected]
ASSISTENTE DE DIRETORIA Maria Janiely
[email protected]
2
Gerenciamento de TI e x ec u t i v e
r e p o rt
apresentação
No mundo dos exabytes
Há alguns anos, e em velocidade diretamente proporcional ao lançamento de produtos, a área de Tecnologia da Informação (TI) vem sendo um dos principais pilares da estratégia de negócios. Passou a ser cobrada por resultados pela alta direção e por acionistas das companhias, muito longe das funções de suporte exercidas no início da microinformática.
Somente o gerenciamento de TI propicia domínio completo dos processos Esse Executive Report sobre Gerenciamento de TI tem como objetivo principal oferecer aos CIOs informações consistentes sobre o quanto a boa gestão do ambiente é estratégica para a área de TI e, conseqüentemente, para os negócios das corporações. Passar uma visão abrangente das questões que envolvem o Gerenciamento de infra-estrutura, seus conceitos, história e todas as suas implicações, abordadas amplamente. A proposta é demonstrar quais são os desafios, as soluções existentes para se conquistar as melhores práticas para essa tarefa e os benefícios propiciados por essas soluções
Um dos maiores desafios hoje para as empresas e seus CIOs é reduzir gastos, sem comprometer o desempenho de TI e, principalmente, sem afetar a produtividade. Pelo contrário, a meta é diminuir os custos e aumentar a competitividade, mantendo a disponibilidade e a continuidade dos negócios. A saída mais adotada é automatizar cada vez mais os processos de gerenciamento da infra-estrutura tecnológica. Muito além de contratempos, o não-gerenciamento ou a má gestão das redes acarreta prejuízos financeiros que podem comprometer a avaliação do CIO junto à presidência e aos investidores. Se questões de segurança eram prioridade número um, com o advento da Lei SarbanesOxley, passaram a ser prioridade zero. Agora recai sobre o CIO a responsabilidade de não permitir, pelo mínimo de tempo que seja, a interrupção do funcionamento de sistemas essenciais; evitar a todo custo que informações sigilosas e dados financeiros caiam em mãos de concorrentes e, ainda, de estar ciente das exigências da prestação de informações financeiras precisas e corretas.
De acordo com a consultoria IDC Brasil, até o ano de 2010 serão gerados no mundo centenas de exabytes de informação digital (1 exabyte equivale a 1018 bytes, ou 1 quintilhão de bytes). E isso das mais diferentes fontes, desde música com os MP3, MP4, passando por imagens e indo até as transações de uma companhia. Diante dessa realidade, os profissionais de TI passam a necessitar de ferramentas que os auxiliem de forma eficaz em suas tarefas cada vez mais complexas. O gerenciamento da infra-estrutura é um recurso poderoso de que o CIO pode e deve lançar mão. Inteligência nos negócios está diretamente ligada à competitividade e, em conseqüência, à lucratividade. Com as constantes inovações tecnológicas, os CIOs se deparam com uma questão crucial na busca de resultados: medir e controlar a produtividade de softwares, processos, licenças e toda a sorte de inventários da rede. O volume de dados digital produzido, capturado e replicado no mundo, em 2006, girou em torno dos 161 exabytes, ou cerca de 161 bilhões de gigabytes, de acordo com a IDC Brasil. A expectativa é que esse índice cresça a uma taxa média de mais de 80% ao ano, chegando a atingir 988 exabytes em 2010.
A forma de se estabelecer a comercialização e quais tecnologias que irão prevalecer no futuro não é possível afirmar. Porém, é bem provável que ocorra aumento na adesão de multiplataformas, outsourcing, computação sob demanda, mobilidade, convergência, consolidação de sistemas, segurança e software livre. Soma-se a esse quadro, o aumento da comoditização de TI e da sua operação por terceiros. Uma coisa é certa: hoje, o gerenciamento da infra-estrutura pode detectar e resolver problemas da rede no próprio local ou remotamente, como detalhado a seguir. 3
Gerenciamento de TI e x ec u t i v e
r e p o rt
conceito A complexidade do gerenciamento
O gestor de TI precisa se preocupar com uma série de aspectos, que não são poucos: administrar ambientes heterogêneos compostos por máquinas de diferentes marcas e tempo de uso; intranets, extranets, redes locais (LAN), redes de longa distância (WAN) e dispositivos sem fio como notebooks, handhelds e palm tops; comunicação por satélite, sistemas para diferentes aplicações, firewall, antivírus, política de segurança e mais uma série de questões estritamente tecnológicas. Além disso, ele precisa ouvir, respeitar e atender às necessidades de todas as áreas da empresa; integrar hardwares e softwares com o legado, avaliar as inovações tecnológicas, não descuidar de aspectos relativos à segurança, preocuparse em reduzir custos e controlar gastos, alinhar a TI à estratégia de negócios da empresa e comprovar os benefícios dos investimentos.
Inovações tecnológicas e disponibilidade tornam a gestão da infra-estrutura cada vez mais desafiadora Com o surgimento do modelo de computação distribuída e a acentuada dependência de TI por parte das empresas para atingir resultados nos negócios, aumenta a necessidade de metodologias e soluções que auxiliem no monitoramento e controle dos sistemas. Em todos os níveis, âmbitos e camadas da infra-estrutura tecnológica. Fator preponderante para que o quadro atual fosse desenhado, a Internet é o canal que permite maior nível de comunicação e troca de dados. Por isso, gerenciar a infra-estrutura que suporta as transações no mundo virtual tornou-se essencial.
Um gerenciamento inteligente passa pelo conhecimento e domínio de novas propostas de organizar os recursos tecnológicos, a exemplo de virtualização, blade, grid computing, utility computing e uso sob demanda. Esses conceitos terão um tempo de maturação e conseqüente aumento de adesão em aproximadamente 10 anos, segundo afirmam consultores de mercado.
Monitorar e manter todos os processos em pleno funcionamento é fundamental. Essa tarefa se aplica também aos desktops e aos servidores individualmente e, ainda, à disponibilidade de aplicações e base de dados; ao planejamento da capacidade dos sistemas e à administração do uso de software e falhas, conteúdo e pessoas, sem descuidar da segurança. Recorrer às ferramentas de gerenciamento para cada uma dessas tarefas é uma boa saída para os administradores, que devem procurar soluções que se adaptem às mais complexas e diferentes plataformas, sejam baseadas em Unix e Linux ou Windows e ambiente Intel.
Convergência: maior volume de dados As sucessivas ondas tecnológicas geram diversos pacotes de aplicativos destinados a integrar toda a empresa, aumentar a produtividade e facilitar a comunicação e a transmissão de dados em diferentes níveis. Entre esses aplicativos, estão desde o recente ILM (Information Lifecycle Management) até os “tradicionais” ERP (Enterprise Resource Planning), sistemas de gestão empresarial. Soluções para automação e inteligência de processos estão em toda parte e ganham novas e poderosas aliadas: a Internet e as inovações no campo das telecomunicações. 4
Gerenciamento de TI e x ec u t i v e
r e p o rt
Era da informação
No segmento industrial, o emprego da TI permite não apenas agilizar a produção, mas também facilitar o contato com fornecedores e parceiros de negócios. As atenções se voltam para as redes internas e externas, troca eletrônica de documentos, código de barras, identificação via radiofreqüência, ou RFID (Radio-Frequency Identification) e soluções que permitem a perfeita integração com a cadeia de suprimentos (supply chain). Muitas dessas soluções são aplicáveis a outros setores, como o de varejo, por exemplo.
As complexas demandas de gerenciamento de TI são conseqüência direta da evolução vertiginosa dos sistemas de informação nos últimos 30 anos. Nos anos 60 reinavam absolutos os CPDs. Preparados para abrigar os mainframes, esses ambientes eram climatizados, fechados por vidro, como uma verdadeira redoma e, geralmente, em uma área à parte na empresa, à qual tinham acesso apenas os profissionais diretamente envolvidos com os computadores, como analistas de sistemas, técnicos de manutenção, programadores, operadores.
De forma redobrada, toda atenção e cuidado dos CIOs são direcionados a questões de segurança, armazenagem de dados e aplicações de missão crítica. As operadoras de telecomunicações, empresas de varejo e da área de serviços priorizam os pacotes que permitam identificar e selecionar os clientes, como as soluções que têm como base o conceito de CRM (Customer Relationship Management). As soluções de BI (Business Intelligence), que permitem a análise dos dados sob as mais variadas e detalhadas perspectivas, caem nas graças de empresas de diversas áreas.
Até o final dos anos 70, predominou o que se convencionou chamar de a Era dos CPDs, ou ainda a Era do Computador, em que todas as decisões referentes à Tecnologia estavam a cargo do diretor de processamento de dados e de sistemas de informações gerenciais. Todo o tempo era dedicado à criação de algoritmos, rotinas, linguagens de programação, desenvolvimento de aplicativos e demais funções técnicas e o CPD era visto basicamente como um setor gerador de gastos e “um mal necessário”.
Outro ponto que merece destaque é o atendimento e gerenciamento do cliente interno que, em empresas de todos os tipos e portes, passa a ser peça-chave na escolha e na implementação dessas novas ferramentas. As pessoas são imprescindíveis para o sucesso dos novos projetos de tecnologia e, também, passam a utilizar e a gerar dados não-estruturados como e-mail e mensagens instantâneas.
Nível de maturidade Classes de Data Center (nível I, II, III e IV) Tipos de Data Center Gerenciamento de TI
Engenharia de TI
Operações de TI
Entrega de serviços de TI Gerenciamento de sistemas, automação, virtualização Armazenamento
Equipamentos de rede
Servidores
Energia
Resfriamento
Espaço físico
Data Center corporativo
5
Nível de maturidade • nível 1: caótico • nível 2: reativo • nível 3:proativo • nível 4: impulso nos serviços • nível 5: criação de valor Classe de Data Center • camada 1: infra-estrutura básica • camada 2: capacidade redundância • camada 3: manutenção de site • camada 4: infra-estrutura tolerante a falhas Tipos de Data Center • servidores alojados em pequeno espaço • servidores alojados em grandes salas • Data Center localizado • Data Center misto • Data center corporativo
Fonte: IDC 2007
Maturidade do modelo de infra-estrutura de Data Center
Gerenciamento de TI e x ec u t i v e
r e p o rt
Hoje em dia, o grande risco das empresas é gastar em excesso com TI e continuar perseguindo vantagens sobre a concorrência, o que levará a investimentos errados e a decepções. Essas afirmações provocaram diferentes reações no mercado e entre os executivos de TI, mesclando indignações acaloradas com concordâncias discretas. Muitas críticas destacaram que as empresas early adopters, que apostam no desenvolvimento tecnológico, alcançam sucesso porque contam também com uma estratégia de negócios bem orquestrada. Mas TI desempenha papel primordial e contribui significativamente para a obtenção dos bons resultados É possível estabelecer uma analogia da atuação e comportamento das corporações com a afirmação de Charles Darwin de que “não são as espécies mais fortes que sobrevivem, nem as mais inteligentes e sim, as que respondem melhor às mudanças”.
A partir de 1975, todas as funções para o funcionamento de um computador já estavam integradas num único chip. Os avanços da microeletrônica, no início dos anos 80, possibilitaram o desenvolvimento de computadores de menor porte e, ao mesmo tempo, mais poderosos em termos de capacidade de processamento, agilidade e memória, ficando também mais baratos. A capacidade de memória passou a dobrar a cada ano, o processamento das informações deixava de ser feito em lotes de transações (em tempo posterior ou batch) e passava a ser on-line (em tempo real). A partir dos anos 90, as mudanças tornaram-se mais significativas e visíveis. A Era dos CPDs chegava ao fim para dar início à “Era da Informação”. Aos poucos, os mainframes começaram a ser substituídos por servidores de aplicações, em processo batizado de downsizing e rightsizing. Em muitas empresas, ainda hoje, os mainframes são mantidos para operações mais complexas e estratégicas.
Evolução Com o aumento da complexidade e da diversidade tecnológica apresentadas pelo mercado e adotadas pelas corporações, já não basta o gerenciamento de forma isolada das redes e seus ativos, dos desktops, servidores, dados e software. Todos esses componentes precisam ‘conversar’, interagir uns com os outros, possibilitando a conectividade e os serviços. Hoje, o gerenciamento deve contemplar esses aspectos. Nesse sentido, as fornecedoras de Tecnologia estão adotando padrões comuns em seus produtos para lhes imprimir maior facilidade de integração e, ao mesmo tempo, para permitir aos usuários uma gestão mais eficaz, com menores custos. Na outra ponta, as empresas usuárias de Tecnologia também voltam a atenção para essas questões e passam a escolher produtos com base nessa premissa.
As redes de terminais “burros” ligadas ao mainframe deram espaço para as estações-cliente e para os PCs, munidos com interfaces gráficas e aplicativos que tornaram a operação mais fácil e amigável. O ambiente centralizado e fechado do mainframe e dos CPDs cedeu lugar a plataformas heterogêneas que passaram a abrigar o modelo cliente-servidor, proporcionando o acesso à informação a todas as esferas da empresa. Nessa época aumentou a oferta de software básico e pacotes aplicativos, decretando o fim da arquitetura proprietária e abrindo caminho para o ambiente aberto e a compatibilidade entre os diferentes sistemas.
TI oferece vantagem competitiva? Quando a compra torna-se padronizada, em decorrência de soluções homogêneas, os sistemas genéricos não oferecem vantagens sobre os concorrentes. Essa idéia é defendida pelo escritor, jornalista e consultor norteamericano Nicholas Carr que diz que a Internet se mostra como o mais perfeito canal para a distribuição de aplicações genéricas. Ainda segundo ele, quanto mais as ações se voltam para os Web Services, nos quais é possível comprar aplicações, mais haverá homogeneização da capacidade da Tecnologia.
6
Gerenciamento de TI e x ec u t i v e
r e p o rt
Estudos da consultoria IDC revelaram que o volume de informações dentro das empresas cresce 34% ao ano, chegando a 60% em algumas empresas, o que exige mais espaço em armazenamento e gerenciamento otimizado. O que se observa atualmente é uma grande preocupação, da parte dos fornecedores de soluções, em oferecer sistemas de gerenciamento capazes de trabalhar não apenas com equipamentos de diferentes marcas, como também com topologias distintas. Arquiteturas como as de redes Storage Area Network (SAN), voltadas para um volume grande de dados estruturados, com elevada quantidade de acessos e número limitado de usuários, e Network Attached Storage (NAS), que coloca os discos como dispositivos da rede e não como periféricos de um único servidor. Há ainda o Content Addressed Storage (CAS), destinado a guardar dados de baixa utilização e arquivamento por um longo período, como as informações fiscais. Hoje em dia, as soluções se voltam para o armazenamento e gerenciamento dos dados não-estruturados; com a virtualização de informações e de servidores.
A oferta de hardware e software ampliou consideravelmente, tornando mais ampla e, conseqüentemente, mais complicada a escolha das soluções pelos CIOs. De outro lado, os usuários de diferentes departamentos da corporação passaram a ter acesso a ferramentas de Tecnologia, resultando no aumento do número de estações de trabalho e equipamentos móveis, como notebooks, palm tops e pen drives. Com isso, o ambiente de informática tornou-se múltiplo e bem mais complexo. Surgem as multiplataformas. Muitas empresas passaram a dispor de um parque heterogêneo, composto por máquinas de diferentes fabricantes, portes e datas de fabricação, executando diferentes sistemas operacionais e utilizando inúmeras versões de software. Gerenciar Tecnologia da Informação deixou de ser uma atividade puramente técnica e, hoje, significa direcionar recursos para atingir objetivos estratégicos. Vulnerabilidade é uma palavra que o administrador da infra-estrutura quer banir do seu dia-a-dia. Uso indevido - consciente ou não - de dispositivos móveis como um pen drive e e-mails enviados com informações confidenciais por funcionários são pontos a serem monitorados muito de perto. Spams, vírus, worms, invasões por hackers, acessos a sites impróprios, pirataria e acessos remotos não-autorizados são apenas alguns dos problemas que precisam ser equacionados pelos administradores de TI.
Tecnologias mais recentes O conceito de virtualização pode ser definido como o processo de executar em um único equipamento diversos sistemas operacionais. A máquina virtual é um ambiente total e integralmente computacional, que exerce as mesmas funções de um computador independente. Além disso, com as funcionalidades de virtualização o CIO e seus funcionários adquirem mais liberdade e permitem maior eficiência no controle das ações dos usuários remotos. Ao lançar mão da tecnologia de virtualização, o profissional de TI mantém um servidor operando vários sistemas operacionais.
As ações quanto à segurança devem estar associadas à continuidade dos negócios, não se restringindo aos aspectos puramente tecnológicos, mas também treinamento de pessoas, controle de acesso aos sistemas e aspectos relacionados à segurança do ambiente físico. O grande desafio do gestor é saber quantificar o impacto que uma falha na segurança, em qualquer nível, pode trazer à empresa e a seus parceiros de negócios.
Hardware, software e espaço físico e lógico dos equipamentos compõem a infra-estrutura de servidores, além de soluções de gerenciamento, segurança, rede e aplicações, cabos e periféricos e os demais serviços que atuam em simbiose em um ambiente cliente/servidor. Os servidores não se destinam a uma planta específica, sendo que o ambiente tecnológico não se restringe ao desenvolvimento ou testes, mas se destina à organização por inteiro.
7
Gerenciamento de TI e x ec u t i v e
r e p o rt
Terceirização
Economia de energia e de espaço físico são duas das vantagens da tecnologia blade, que promete ter grande adesão por parte das corporações em um curto período de tempo. Implementação rápida e fácil manutenção também compõem a lista de benefícios dessa tecnologia de gerenciamento de sistemas corporativos que pode ser definida como servidores compactos e de troca a quente, que se modelam a um único chassis. A melhor analogia é feita com uma estante e livros, que vão se encaixando um a um. No blade, há independência dos servidores que vão sendo inseridos na “estante”, com processadores, memória, armazenamento, controladores de rede, sistema operacional e aplicativos próprios. Nesse modelo, é possível afirmar que o servidor blade simplesmente desliza para dentro do chassis e se conecta ao painel traseiro ou do meio, compartilhando energia, ventilação, drives de disquete, comutadores, portas e outros servidores blade.
Uma solução que vem sendo analisada e adquirida de forma crescente é o Business Process Outsourcing (BPO), que não se restringe a uma simples terceirização, na medida em que exige do prestador do serviço a participação nos riscos dos negócios do cliente. O BPO pressupõe a terceirização da gestão de um processo de negócio de uma empresa, por exemplo, a área de recursos humanos, em que são ofertados toda infra-estrutura de hardware, software aplicativos, suporte e mão-de-obra especializada. Isso requer que o prestador tenha profundo conhecimento do negócio do cliente. Se o negócio for bem, o prestador será bem remunerado; se for mal, os prejuízos terão de ser divididos entre as partes. No âmbito geral do outsourcing, as estimativas da IDC Brasil são de que esse mercado, no Brasil, continuará crescendo a taxas bem superiores às de outros segmentos de Tecnologia, devendo movimentar cerca de R$ 14,7 bilhões em 2007. No entanto, existem ainda alguns obstáculos. Enquanto a terceirização de redes de dados e voz e o gerenciamento de infra-estrutura são considerados serviços consolidados, outras propostas de outsourcing de infra-estrutura ainda precisam quebrar barreiras. É o caso do segmento de armazenamento de dados, em que os data centers se apresentam como grandes propulsores do serviço, oferecendo a possibilidade de alocar servidores e equipamentos do cliente ou mesmo cedendo espaço em suas máquinas e disponibilizando uma gama ampla de serviços. Historicamente, as empresas que mais investem em outsourcing de armazenamento são as dos setores financeiro, varejo e manufatura.
Outro benefício de sua utilização é a eliminação de cabos compridos. Os blades exigem cabos curtos, para a interligação entre eles. Quem agradece são os profissionais que precisam manusear centenas de cabos que passam pelos racks, apenas para adicionar e remover servidores. Outro destaque fica por conta das unidades de comutadores e energia compartilhadas, que permitem aumento de espaço físico, garantindo maior densidade e facilidade no gerenciamento de sistemas corporativos.
A IDC divulga índices de 2007 sobre a posição do Brasil em relação a mercados mais maduros. Em software, o País se equipara a Espanha e aos Estados Unidos (veja gráfico número XX). No que se refere ao chamado BRIC (Brasil, Rússia, Índia e China) em relação ao mercado mundial de TI, em 2006 o bloco atingiu a casa dos 7,3%, sendo que para 2011, esse índice deve chegar a 10,2%. Isolados, a China consta com 3,4% e 4,3%; o Brasil responde por 1,5% e 1,9%; a Índia por 1,1% e 2,1%, nos respectivos anos (2006 e 2011).
8
Gerenciamento de TI e x ec u t i v e
r e p o rt
desafios Os Data Centers exigem conhecimento
Detectar problemas antes que ocorram, reduzir custos e manter a disponibilidade figuram entre as tarefas do gerenciamento inteligente A partir do momento em que passamos a usar mais de um micro, seja dentro de uma grande empresa seja num pequeno escritório, surge a necessidade de transferir arquivos e programas, compartilhar a conexão com a Internet e periféricos de uso comum. Adquirir uma impressora, um multifuncional, um modem e um drive de CD-ROM para cada micro, por exemplo, e ainda usar memory keys, ou mesmo CDs gravados para trocar arquivos, não seria produtivo, além de elevar os custos em demasia.
A busca pela excelência nos negócios aumenta os desafios em proporção exponencial. A boa notícia é que há soluções disponíveis para a superação desses desafios, com as quais os CIOs podem contar e serão abordadas no próximo capítulo. Neste, o objetivo é destacar algumas das situações com a falta de gerenciamento ou com a forma inadequada de gerir a infra-estrutura de TI, com as quais os executivos de tecnologia devem se preocupar e se precaver. As redes foram projetadas, inicialmente, para possibilitar o compartilhamento de recursos caros, como aplicativos específicos e bancos de dados, além de impressoras e demais periféricos. As primeiras redes locais surgiram nas universidades norte-americanas no início dos anos 70. Mas foi a partir da década de 80, com o lançamento comercial da Ethernet (que se tornou padrão de redes locais), e da proliferação do modelo cliente/servidor, que esse processo se difundiu nas empresas. Nos anos seguintes, a evolução das ferramentas de informática e das telecomunicações, aliada à redução de custos dos recursos computacionais e ao crescimento da Internet e das tecnologias sem fio, possibilitaram a criação de diferentes tipos e tamanhos de redes, as quais se mantêm em constante evolução.
O primeiro grande desafio é a construção de uma infraestrutura de comunicações flexível e que não se destine apenas à troca de mensagens, mas que possa transmitir dados, imagens e voz de uma maneira segura, no momento exato e com o dispositivo de sua preferência em qualquer parte do mundo. O gerenciamento mal dimensionado ou falho acarreta a perda de dados e informações e despesas com paradas não planejadas. Para se evitar contratempos – casos graves podem custar inclusive o emprego do CIO –, é necessário dimensionar os investimentos; garantir a disponibilidade dos serviços que rodam na rede; garantir a confiabilidade do usuário; gerenciar unidades distintas e também o consumo de energia.
9
Gerenciamento de TI e x ec u t i v e
Revisão de conceitos
r e p o rt
Atualmente, a grande preocupação dos gestores de TI é a proliferação do número de servidores. Cada vez mais as empresas investem em novos equipamentos, em busca de aumentar a produtividade e atender às crescentes necessidades dos negócios o que, ao contrário, pode causar graves transtornos e dificuldade de gerenciamento. A diversidade de plataformas operacionais e de gerações tecnológicas num único ambiente provoca problemas de operação, manutenção, atualização e, conseqüentemente, influi nos custos.
O caminho é automatizar os processos e isso implica em adquirir e gerenciar soluções para descobrir, manter, configurar, corrigir e recuperar dispositivos em toda a empresa, incluindo além da gama de hardware como laptops, estações de trabalho, servidores, memory keys e handhelds, toda a sorte de sistemas e softwares. Esse artifício tem como objetivo transformar todo e qualquer processo computacional em operações executadas simultaneamente, em múltiplos sistemas. O resultado será mais em rapidez, agilidade de resposta e a possibilidade de os profissionais de tecnologia localizarem, de forma local ou remota, qualquer recurso da rede - equipamentos ou sistemas. É possível ainda, analisar a situação atual no que diz respeito a prováveis problemas e corrigilos antecipadamente.
Um dos fatores que tem contribuído para o aumento do número de servidores nas empresas é a redução contínua do custo do hardware, embora esse valor represente apenas 20% do custo total de propriedade. Apesar de a opção de instalar vários servidores parecer uma alternativa barata, cada nova máquina adiciona custos ocultos significativos, ao requerer dedicação dos técnicos especializados em atividades de depuração, otimização e gerenciamento. Além disso, é necessária a manutenção de diferentes configurações como scripts operacionais, versões de sistemas, utilitários de apoio, procedimento de backup e disaster recovery.
Frente às limitações do hardware e do software no passado, muitos operadores e administradores ainda permanecem presos a conceitos e regras ultrapassadas, como por exemplo a de que cada aplicação de missão crítica deve ficar num único servidor dedicado, o qual nunca pode utilizar mais do que 80% da capacidade da CPU (unidade central de processamento). Com a evolução tecnológica, isso não faz mais sentido. O novo (velho) desafio do executivo de TI: Construir uma nova TI sem aumentar custos
Business Monitoring, Analysis & Decision-Making
Business Processes Interface & Access
Custom Apps, Business Rules
In-house, 3rd party components
Federated Data & Information
Virtualized Infrastructure Virtualized Processing
Fonte: IDC 2007
Tiered Storage
Security Management
Integration, Event & Deployment
Collaboration/Messaging
Packaged Apps – ERP CRM HR
Service Level & Resource Management
Business Rules & Functionality
© 2007 IDC
10
Gerenciamento de TI e x ec u t i v e
r e p o rt
As melhores práticas do mercado recomendam que, no caso de servidores, é importante obter dos fornecedores garantia de, no mínimo, 99,9% de confiabilidade. Os procedimentos para assegurar o bom desempenho dos servidores devem ser os mesmos que os aplicados em mainframes, com monitoramento e manutenções periódicas e planejamento do desempenho e uso dos sistemas. Em qualquer nível que a empresa esteja, vale pensar em soluções de centralização do gerenciamento, objetivando a redução de custos e a redução de downtime.
Manter todo esse aparato sob controle requer a adoção de medidas, entre as quais se incluem as seguintes consolidações: geográfica, física, de dados e aplicações. Entende-se por consolidação geográfica a redução do número de locais, concentrando os servidores em um número menor de máquinas. Na prática, isso possibilita reduzir custos de administração, na medida em que diminui a necessidade de técnicos remotos. Também os níveis de serviço acabam sendo otimizados, por meio da adoção de procedimentos e regras operacionais. Consolidação física significa transferir a carga de vários servidores de menor porte para máquinas de maior porte, o que melhora a utilização geral dos recursos. Em média, um servidor distribuído utiliza de 20% a 30% de sua capacidade, o que equivale ao uso do pleno potencial de um único servidor a cada três máquinas. Outra medida recomendável refere-se à consolidação de dados e aplicações, que exige ações mais sofisticadas e planejamento preciso para combinar diversas fontes de dados e plataformas.
Atenção com a segurança Amada pelos usuários e detestada pelos CIOs no que se refere à segurança, a Internet pode ser uma grande dor de cabeça - se não houver cuidado em evitar que ela se torne o canal mais vulnerável para a entrada de ameaças externas. Tendo em vista que na maioria das vezes os funcionários têm acesso irrestrito à Web e, também, que há contato com terceiros, via extranets, o mínimo de ação requerida é a adoção de conexões criptografadas.
Para eliminar a complexidade do ambiente um dos caminhos é adotar o gerenciamento centralizado de TI que pode oferecer um suporte eficiente. A gestão eletrônica dos ativos demonstra que a padronização e a integração são primordiais para essa tarefa do CIO, que precisa definir arquiteturas e interfaces comuns, definidas em ciclos. Por um lado, a centralização das funções de TI visa a alcançar serviços mais eficientes e enxutos, que passa pela operação de servidores e suporte técnico, indo até a compra e desenvolvimentode aplicativos. De outro lado, a descentralização das funções da TI caminha no sentido de conquistar maior agilidade para responder às necessidades específicas da corporação. O gerenciamento centralizado, permite a recuperação remota de ativos de TI e de telecomunicações de forma rápida e com redução de custos, já que evita deslocamento de pessoal.
Estudo realizado em diversos setores da economia detectou que cerca de 78% das empresas investigadas registraram perdas financeiras em decorrência da invasão dos sistemas. No entanto, 56% do total não souberam calcular os prejuízos. Diante do fato de que o maior entrave é cultural e não tecnológico, a resistência de executivos e funcionários às medidas de segurança pode ser um complicador para a implementação de sistemas de defesa. A evolução tecnológica gerou um efeito inesperado. Os altos custos diretos e indiretos relacionados à manutenção de todo o aparato computacional levaram as empresas a reavaliar sua infra-estrutura de TI e a buscar identificar, medir e comprovar os benefícios propiciados em disponibilidade, confiabilidade, acessibilidade e eficiência dos sistemas. Diante dessa variedade de mudanças, cabe ao diretor da TI a difícil tarefa de imprimir eficiência aos processos de negócios e, ao mesmo tempo, reduzir os custos operacionais. O bom gerenciamento e a melhor utilização da infra-estrutura passaram a ser fundamentais e, também, os principais desafios do administrador de TI.
11
Gerenciamento de TI e x ec u t i v e
r e p o rt
Estudos do Gartner sobre o parque de PCs (desktops) mostraram que as empresas que não mantêm um gerenciamento adequado de hardware e software distribuídos podem registrar um aumento anual da ordem de 7% a 10% no custo total de propriedade (TCO). Por monitoramento impróprio, essas corporações acabam acessando informações inadequadas para planejar upgrades de hardware ou sistemas operacionais. Além de aumentar os custos, o mau gerenciamento colabora para que os gestores da área tracem previsões incorretas sobre os equipamentos que os usuários de fato têm e para os quais devem desenvolver aplicações.
Verificar continuamente a necessidade de ampliar a capacidade de memória, a capacidade dos discos, a velocidade do processamento, upgrade de software, mobilidade, recursos multimídia, recursos para trabalho em grupo, entre outros elementos, é fundamental para otimizar o parque de desktops e adequar o uso. Existem ferramentas que auxiliam o gestor na tarefa de fazer esse levantamento, compor um inventário sobre o número de máquinas instaladas (inclusive notebooks, PDAs e dispositivos wireless) e monitorar as respectivas configurações, software utilizado, métricas de performance e nível de integração com outros sistemas.
Outra conclusão do estudo é que quando o gerenciamento é adequado e bem executado, pode-se reduzir o TCO em cerca de 30%. A estratégia se resume em focar a redução de custos de todas as fases do ciclo de vida do PC, levando em consideração também o ambiente de TI do qual faz parte. Centralizar o controle da TI e optar pela adoção de um ambiente padronizado (com produtos de um único fabricante ou de poucos fornecedores) são outras atitudes que podem trazer grandes benefícios, entre os quais facilitar o suporte, acelerar a resolução de problemas, facilitar a atualização de antivírus e programas aplicativos e otimizar o treinamento de usuários, além de reduzir custos. Uma pesquisa feita pelo Giga Information Group revelou que a padronização de PCs pode gerar reduções da ordem de 15 % a 25% no custo da TI durante o ciclo de vida dos sistemas.
Questão importante também é a distribuição/migração. Em geral, os usuários acabam requerendo horas do pessoal técnico da área de suporte e help desk para configurar software nos seus equipamentos. Mas esse trabalho pode ser feito de forma remota por meio de ferramentas específicas baseadas em rede. A configuração automatizada reduz os riscos de erros humanos e estabelece maior padronização e confiabilidade. Em princípio, esse processo permite carregar nos novos PCs o sistema operacional e os aplicativos que foram configurados num sistema de referência. A determinação do tempo de vida útil dos equipamentos é uma prática recomendada por institutos de pesquisa e consultores como forma de reduzir custos com suporte e manutenção, além de facilitar o gerenciamento. O Giga Information Group recomenda que a cada três anos o parque de desktops seja renovado e, a cada dois, o de notebooks, considerando que é mais caro para a empresa manter operantes equipamentos ultrapassados do que investir na sua substituição por produtos de última geração. Quanto mais antigo for o parque, maiores serão os custos de manutenção e de suporte, além do aumento dos riscos de falhas nos sistemas e de uma baixa velocidade de processamento, o que pode comprometer os níveis de produtividade da empresa.
Capacidade calculada A vida útil dos PCs é dividida em quatro fases principais: avaliação; distribuição e migração; gerenciamento e desativação ou renovação. É bom estar atento para evitar distorções – como fornecer uma máquina com um processador de alta potência, grande capacidade de memória e recursos sofisticados para um funcionário que apenas irá utilizar um processador de textos. Portanto, é fundamental que se avalie previamente a base de usuários para definir a configuração dos micros a eles destinados, de forma a atender às reais demandas.
12
Gerenciamento de TI e x ec u t i v e
r e p o rt
Plataforma em dia
Mobilidade
No mundo, cerca de 800 milhões de PCs estão com a vida útil superior a quatro anos. Estima-se que desse contingente, 50% são utilizados no setor corporativo e estão equipadoa com sistemas operacionais mais antigos. Sequer pensam em migrar para o Windows Vista por enquanto. O mesmo ocorre com os demais aplicativos, que também exigem renovação, até porque muitos fabricantes deixam de oferecer suporte para versões antigas de soluções. Não acompanhar essa tendência do mercado pode significar para as corporações a obrigação de arcar com custos adicionais expressivos.
Mais do que nunca, a força de trabalho está mais móvel e distribuída. E esse processo tende a se acentuar nos próximos anos com a maior e melhor oferta de sistemas operacionais e de aplicações de gerenciamento. O mercado dispõe de um largo espectro de ferramentas que permite monitorar e gerenciar os sistemas cliente de forma remota, controlando o inventário, solucionando problemas e instalando ou renovando software. As soluções que possibilitam o gerenciamento remoto da base de usuários móveis facilitam, principalmente, as tarefas de manutenção e help desk. Se um usuário tiver problemas com um aplicativo, o pessoal técnico poderá visualizar o problema e solucioná-lo remotamente. De acordo com o Gartner, as corporações podem registrar uma economia dos custos de help desk de US$ 21 a US$ 77 por máquina ao ano, apenas adotando essa prática.
No Brasil, não é difícil encontrar indústrias empregando soluções ainda mais antigas, que usam em linguagem Cobol e sistema operacional DOS e não querem investir em inovação. Avaliam que essas tecnologias, apesar de antigas, as atendem de forma satisfatória. A realidade mostra que no que se refere a novos investimentos em TI em países emergentes, os gestores precisam verificar como a tecnologia flui nos diferentes departamentos da empresa e qual o grau de maturidade dos usuários para lidar com ela.
Para ajudar o executivo de tecnologia a superar o desafio de cortar custos e otimizar o gerenciamento dos ambientes distribuídos, outra ação é espalhar pela corporação estações de reserva pelas quais os funcionários podem fazer backups e repor componentes dos sistemas, conforme a necessidade. Desse modo, são criadas estações de serviços voltadas para atender aos usuários de notebooks e ajudá-los a solucionar problemas de forma rápida e eficiente.
A redução dos custos diretos e indiretos, hoje o maior de pressão das altas direções sobre os de TI, impulsiona as práticas de gerenciamento. Optar pela padronização do ambiente também é uma atitude inteligente, na medida em que facilita a utilização dos recursos por parte dos clientes internos, além de reduzir os custos com treinamento e minimizar o trabalho de help desk. São práticas que, no conjunto, contribuem para reduzir os custos totais em cerca de 30%.
Centralizar e compartilhar arquivos também permite economizar espaço em disco, já que, em vez de haver uma cópia do arquivo em cada máquina, existe uma única cópia localizada no servidor de arquivos. Com todos os arquivos no mesmo local, manter um backup de tudo também se torna muito mais simples. A sofisticação dos recursos de segurança varia de acordo com o sistema operacional utilizado. Além de texto (que pode ser transmitido por e-mail comum), pode-se montar um sistema de comunicação viva-voz ou mesmo de videoconferência, economizando os gastos em chamadas telefônicas, pela Internet (Voz sobre IP - VoIP).
13
Gerenciamento de TI e x ec u t i v e
r e p o rt
Abrangência ilimitada
As opções em produtos, arquiteturas, protocolos, tipos de transmissão, entre outros elementos que compõem uma rede, são inesgotáveis. Cabe ao CIO saber escolher e agregar novos componentes e orquestrar todo esse aparato, de modo que funcione em perfeita harmonia. E, à medida que aumenta a quantidade de usuários das aplicações corporativas, o volume de informações e a necessidade de administração dos dados crescem na mesma proporção.
Vale recordar que existem dois tipos de rede: as locais, também chamadas de LAN (Local Area Network) e as remotas ou de longa distância, batizadas de WAN (Wide Area Network). A LAN une os micros de um escritório, de um edifício, ou mesmo de um conjunto de prédios próximos, usando cabos ou ondas de rádio, e a WAN, que interliga micros situados em cidades, países ou mesmo continentes diferentes, usa links de fibra óptica, microondas ou satélites. Geralmente uma WAN é formada por várias LANs interligadas.
Surge, então, a necessidade de monitorar o consumo de banda e programar sua expansão ou, ainda, de estudar o emprego de tecnologias que permitam comprimir os dados. Também se faz necessário controlar a disponibilidade dos recursos computacionais, verificando se os servidores e os desktops estão funcionando adequadamente e se as aplicações estão disponíveis. A análise da performance é outro elemento fundamental para, no caso de alguma queda, identificar onde está o problema, se na rede, nos micros ou nos aplicativos.
A LAN pode ser classificada como rede de dados de alta velocidade, com baixa taxa de erros de transmissão, cobrindo uma área geográfica relativamente pequena e formada por servidores, estações de trabalho, sistema operacional de rede e link de comunicações. O planejamento desse sistema, ou arquitetura, inclui hardware (placas, conectores, micros e periféricos), software (sistema operacional, utilitários e aplicativos), meio de transmissão, método de acesso, protocolos de comunicação, instruções e informações. A transferência de mensagens é gerenciada por um protocolo de transporte como IPX/SPX, NetBEUI e TCP/IP.
Data Center Corporativo
Atributos mínimos para um data center
Business Services Gerenciamento de TI
Engenharia de TI
Operações de TI
Serviço de TI Delivery Segurança
Disponibilidade
Escalabilidade
Servidores
Equipamento de Rede
Armazenamento
Poder
Resfriamento
Espaço
Data Center Corporativo
Gerenciabilidade
14
Fonte: IDC 2007
Gerenciamento de Sistemas, Automação, Virtualização
Gerenciamento de TI e x ec u t i v e
r e p o rt
Esse poderoso canal de comunicação também tem se mostrado como a infra-estrutura ideal para conectar redes privadas como as VPNs (Virtual Private Network), de acesso restrito. Em vez de usar links dedicados ou redes de pacotes, como Frame Relay, as VPNs usam a infra-estrutura da Internet para conectar redes remotas. A principal vantagem é o baixo custo, bem inferior se comparado ao dos links dedicados, especialmente para as grandes distâncias.
Uma LAN pode ter duas ou várias centenas de estações, cada qual separada por metros de distância, possibilitando aos seus usuários o compartilhamento de todos recursos disponíveis na infra-estrutura, como espaço em disco, sistemas de impressão, unidades de CD-ROM, que é feito pelos softwares de rede Network Operation System (NOS) e por placas de rede. Um exemplo de serviço sobre redes de pacotes é o oferecido pelas empresas de telecomunicações e baseado em tecnologia Frame Relay. Existem várias arquiteturas de rede WAN, entre as quais as baseadas no protocolo TCP/IP (Transmission Control Protocol), que é o padrão para redes Unix, Novell, Windows NT e OS/2 e, também, o utilizada na Internet.
Funções integradas O que permanece imutável e comum, independentemente do tipo e tamanho da rede, é a necessidade de controlar cada recurso ou elemento, de tal forma que seja possível maximizar a eficiência e a produtividade e, claro, assegurar o seu funcionamento. Entre os principais objetivos de gerenciar os ambientes de Data Centers corporativos constam, basicamente, reduzir custos operacionais, minimizar os congestionamentos da rede, detectar e corrigir falhas no menor tempo possível de forma a diminuir o downtime (indisponibilidade) dos sistemas, aumentar a flexibilidade de operação e integração, imprimir maior eficiência e facilitar o uso para a organização como um todo.
Com o desenvolvimento da tecnologia sem fio, surgiram as WLAN (wireless local area network), que fornecem conectividade para curtas distâncias, geralmente limitada a até 150 metros. Nelas, os adaptadores de redes dos computadores e os dispositivos de rede (hubs, switches, bridges) se comunicam via ondas eletromagnéticas. Seu emprego é ideal em ambientes com alta mobilidade dos usuários e em locais onde não é possível instalar o cabeamento tradicional. Reunindo os mesmos conceitos das redes WAN (Wide Area Network), empregadas para permitir a conexão de sistemas que se encontram em longa distância, as WLANs se diferem por utilizarem antenas, transmissores e receptores de rádio, em vez de fibras ópticas e modem de alta velocidade, entre outras formas de conexão. Em tecnologia de transmissão, as WLANs podem empregar as mesmas usadas pelas LANs sem fio. Mas também pode ser utilizada a tecnologia de telefonia móvel celular. A Internet propiciou a criação de outros tipos de redes, como as de uso exclusivo interno (intranets) e as destinadas ao relacionamento da empresa com seus parceiros de negócios (extranets), configurando-se, inicialmente, como o meio eficiente para agilizar e facilitar o intercâmbio de informações e de documentos (via WebEDI).
A realização dessas tarefas requer metodologias apropriadas, ferramentas que as automatizem e pessoal qualificado. Atualmente existem no mercado diversos tipos de ferramentas que auxiliam o administrador nas atividades de gerenciamento. Essas ferramentas são divididas em quatro categorias principais: Ferramentas de nível físico, que detectam problemas em cabos e conexões de hardware; monitores de rede, que se conectam às redes supervisionando o tráfego; analisadores de rede, que auxiliam no rastreamento e na correção de problemas encontrados na infra-estrutura e, sistemas de gerenciamento de redes, os quais permitem a monitoração e o controle de uma rede inteira a partir de um ponto central.
15
Gerenciamento de TI e x ec u t i v e
r e p o rt
O gerenciamento de telecomunicações corporativas permite uma administração contínua das operações da empresa. Mas é necessário determinar qual nível resultará no melhor retorno sobre o investimento. Devido à grande complexidade dos Data Centers corporativos e das pressões não só para reduzir custos, mas também para justificar a real necessidade de investimentos, fica praticamente impossível ao diretor da área fazer um gerenciamento eficaz sem o auxílio de metodologias e ferramentas que permitam automatizar processos. As empresas, e principalmente as altamente dependentes da tecnologia, estão cada vez mais conscientes dessa necessidade.
Para alívio do CIO os sistemas de gerenciamento apresentam a vantagem de ter um conjunto de ferramentas para análise e depuração. Eles podem apresentar também uma série de mecanismos que facilitam a identificação, a notificação e o registro de problemas, a exemplo de alarmes que indicam, por meio de mensagens ou bips de alerta, anormalidades na rede; geração automática de relatórios contendo as informações coletadas; facilidades para integrar novas funções ao próprio sistema de gerenciamento; geração de gráficos estatísticos em tempo real e apresentação gráfica da topologia das redes. Os serviços de telecomunicações, que figuram como os gastos mais difíceis de serem administrados, são um ponto que merece grande atenção do gestor de TI. Hoje, o desafio é ainda maior, pois é necessário reduzir custos sem, no entanto, comprometer a solidez do Data Center corporativo. Existem ferramentas de gerenciamento de serviços de comunicação que facilitam uma série de tarefas, como a realização de inventário central, que inclui os aspectos técnicos e de bilhetagem de cada circuito; gerenciamento de dados e ferramentas para produção de relatórios e controle de contas, contratos e gerenciamento de circuito; integração de outras plataformas de TI, como sistemas help desk, plataformas para gerenciamento de desktop e rede, planejamento de recursos empresariais e contabilidade. Além desses tópicos há ainda, os links para operadoras e outros provedores de serviços via XML ou extranet.
16
Gerenciamento de TI e x ec u t i v e
r e p o rt
soluções Gama de software e produtos auxilia o CIO
NÃO HÁ FÓRMULAS PRONTAS, PORTANTO, É PRECISO CONHECER O CENTRO DE DADOS E COMBINAR AS DIVERSAS SOLUÇÕES DISPONÍVEIS É inegável que os desafios que o CIO precisa encarar são grandes e numerosos. Mas também é verdade que há uma gama de soluções que prometem auxiliar o profissional nessa árdua tarefa. Umas cumprem o que prometem, outras nem tanto. Porém, muitas vezes o problema não está no produto, mas na escolha adequada para a necessidade específica. Cabe ao profissional de TI a busca e o conhecimento das opções existentes e a adoção daquela que se encaixe na solicitação.
As tendências tecnológicas e econômicas afetam diretamente os Data Centers Corporativos na medida em que caminha para ser mais denso, com inúmeros ambientes virtuais e de gestão remota flexível. Tecnologias disponíveis atualmente permitem a drástica redução do espaço computacional; as elevadas capacidades de processamento permitem também rentabilizar um servidor físico para várias aplicações simultaneamente e, dada a complexidade inerente, o gerenciamento se apresenta como vital na evolução dos centro de dados.
Web services, SOA (Service-oriented architecture), ou ainda, em português, arquitetura orientada a serviços; virtualização, tecnologia Blade e a adoção do ITIL (Information Technology Infrastructure Library), que está na versão 3.0 e já conta com livros em Português, são algumas atitudes a serem adotadas, além das ferramentas específicas de gerenciamento, que podem facilitar o trabalho de manter a infra-estrutura disponível e operante, inclusive para missões críticas. Para refrescar a memória, Web service é uma solução utilizada na integração de sistemas e na comunicação entre aplicações diferentes. Com esta tecnologia é possível que novas aplicações possam interagir com aquelas que já existem e que sistemas desenvolvidos em plataformas diferentes sejam compatíveis, como define a Wikipédia.
Mais uma vez, o gerenciamento de TI tem por objetivo prover serviços de tecnologia com qualidade e alinhados às necessidades do negócio, buscando sempre a redução de custos, mesmo que seja a longo prazo. Para tanto, existem algumas opções, umas mais antigas, mas ainda em vigor, e outras mais recentes. Entre os exemplos está o modelo Internet, que adota uma abordagem gerente/agente. Os agentes mantêm informações sobre recursos e os gerentes requisitam essas informações aos agentes. Outro modelo é o OSI, da ISO, que se baseia na teoria de orientação a objeto. Esse modelo gera agentes mais complexos de serem desenvolvidos, consumindo mais recursos dos elementos de rede e liberando o gerente para tarefas mais inteligentes. Há também sistemas de gerenciamento baseados em Java, que consistem em browser gerenciador no NMS (Network Management System) e uma máquina Java no agente.
17
Gerenciamento de TI e x ec u t i v e
Ativos específicos
r e p o rt
Com o crescimento do uso da Internet, intranets e extranets, é imperativo também gerenciar o armazenamento de dados como fotos, vídeos e textos. Como já vimos, nas empresas de maior porte ou nas que contam com grande parque tecnológico, o crescimento do volume de dados requer a tomada de medidas apropriadas. Alguns analistas relatam que no mercado brasileiro ainda falta maturidade nessa área, porque mesmo com a vasta oferta de ferramentas de gerenciamento de storage, os executivos de TI acabam optando pela compra de discos de armazenamento que, na prática, não atendem aos interesses e dificultam o controle. Porém, diante da necessidade de colocar dados on-line e armazenar dados com critério, esse panorama já mudou. O bom uso das ferramentas pode permitir, por exemplo, que a quantidade de dados que cada profissional de tecnologia gerencia salte de 1,5 TB para 15 TB. Isso significa que a redução de custo não ocorre apenas nos equipamentos de storage, mas no Departamento de Recursos Humanos.
É recomendável que as corporações analisem os processos internos para determinar o que é crítico ou não para o core business, antes de partir para a escolha da ferramenta. Deve-se ainda testar a infra-estrutura para verificar se as condições são favoráveis para receber o novo aplicativo. Caso a rede não esteja preparada, o software de gerenciamento poderá gerar mais problemas do que resultados. Um teste-piloto é fundamental, uma vez que é nesse momento que se define o monitoramento necessário. Outro cuidado vital é treinar as pessoas para que elas saibam exatamente o que estão fazendo. Se a equipe não estiver preparada e o projeto for mal dimensionado, o resultado pode demorar a aparecer ou mesmo frustrar expectativas. Não importa o modelo escolhido ou os protocolos e ferramentas a serem empregadas. O gerenciamento permite monitorar a disponibilidade e o desempenho de cada elemento da rede, medir o nível de utilização do parque de software, o consumo de banda e uma série de fatores que asseguram a continuidade das operações e o melhor uso da infra-estrutura de TI. O CIO pode lançar mão de ferramentas para gerenciar elementos específicos e pontuais como servidores, desktops, storage, e-mails, entre outros. Normalmente, as soluções de gerenciamento de servidores permitem avaliar a performance das máquinas, planejar a capacidade de processamento, fazer inventário de hardware e software, monitorar os bancos de dados e demais aplicativos, como ERP, CRM e BI.
perspectiva na continuidade de investimentos Investimentos em TI (US$ bi)
Aceleradores: • Economia estável • Real valorizado • Novos conceitos e soluções • Necessidade de aumentar a competitividade
35.000 30.000 25.000
US$ 32bi
20.000 15.000
18
Fonte: IDC 2007
11
10
20
09
20
20
08 20
07 20
05
04
20
03
20
20
02 20
01 20
99
20
98
19
97
19
96
19
19
95 19
94 19
93
92
19
19
00
US$ 13bi
5.000
06
US$ 18bi
20
10.000
Gerenciamento de TI e x ec u t i v e
r e p o rt
Há ainda outras opções, como os conceitos ILM (Information Lifecicle Management), para classificar os dados conforme a periodicidade com que são acessados e a data do armazenamento e o HSM (Hierarchial Storage Management), que estabelece um limite para cada usuário armazenar arquivo, variando conforme a atividade e o cargo de cada um. O HSM pode ser usado também dentro de aplicações, como e-mail e banco de dados.
O chamado gerenciamento OoB (Out-of-Band) facilita e garante acesso remoto e seguro a redes e Data Centers localizados em qualquer parte do planeta, mesmo que indisponíveis. Com criptografia, autenticação e acesso de usuários, o processo OoB proporciona alta disponibilidade aos ativos de missão crítica, redução de downtime e aumento do SLA. De forma crescente há integração do gerenciamento OoB à tradicional gestão de TI. Os CIOs buscam acesso alternativo e seguro, além de ter possibilidade de recuperação remota dos ativos.
O gerenciamento de storage costuma ser complexo porque, em geral, as empresas têm vários sistemas na rede que não se integram perfeitamente. Alguns fabricantes de soluções defendem o conceito de virtualização, segundo o qual é possível ter acesso aos dados independentemente do servidor e do sistema operacional utilizado. Com isso, os usuários podem criar camadas de armazenamento entre sistemas de diferentes fornecedores, tendo uma visão unificada e consolidada da capacidade de storage. Em vez de acessar a informação diretamente da base, isso é feito pelo servidor de virtualização, eliminando cópias e o espaço livre em disco. O gerenciamento de dados envolve a realização de backup, restore e business continuity.
Sem o recurso OoB, quando ocorre falha de um ativo e a perda de interface, os SNM (sistemas de rede) notificam o problema, sem mais detalhes, e não permitem o acesso remoto; o gerenciamento In-Band somente notifica que um dos servidores do Data Center não está em operação. A infra-estrutura de acesso OoB possibilita a conexão com a BIOS e, as correções que se fizerem necessárias. O servidor, com isso, volta a operar em minutos. Soluções de mercado eliminam as barreiras de distância, ao permitir o acesso e o controle dos servidores remotos e de outros dispositivos de rede a partir da mesa do CIO, do NOC (Network Operation Center) ou de outro local. Além disso, habilitam a gestão com segurança de toda a sua infra-estrutura de TI, utilizando uma única interface a partir de qualquer lugar e permite gerenciar todos os servidores e dispositivos mesmo se a rede falhar e se o software de acesso remoto não funcionar mais.
Ganhos financeiros, de energia elétrica, de espaço e de cabeamento são alguns dos benefícios que se pode atingir com a virtualização de servidores, que pode ser definida como um processo destinado a rodar diversos sistemas operacionais em uma única máquina. Dessa forma, um equipamento virtual é um ambiente computacional completo e atua como um computador independente. Essa tecnologia permite a execução de vários sistemas operacionais em um servidor.
Storage A gestão da rede de armazenamento é realizada por meio de soluções de SRM (Storage Resource Management), que mostram o comportamento de cada dispositivo conectado na rede, quantidade e tipos de dados guardados, a origem das informações, quantidade de espaço livre e registro de problemas nos discos. É possível criar regras para cada tipo de arquivo e fazer a transferência automática para o disco adequado.
19
Gerenciamento de TI e x ec u t i v e
r e p o rt
Os processadores de serviço podem funcionar desta forma, uma vez que operam independentemente dos processadores em um servidor. Além disso, utilizam o seu próprio firmware personalizado e podem se valer de uma fonte de alimentação autônoma para aumentar a confiabilidade. É possível comunicar diretamente com um processador de serviço por meio de uma ligação fora-de-banda. Alguns processadores de serviço são também denominados de circuitos integrados de aplicação específica, ASIC (Application Specific Integrated Circuits). Há variações por fabricante de equipamento, os processadores de serviço ou ASIC podem ser implementados com vários tipos diferentes de portas de ligação fora-de-banda, incluindo portas USB (Universal Serial Bus), ligações de modem e portas Ethernet RJ-45.
O gestor de TI deve dominar totalmente os processos que fazem com que os ambientes computacionais sejam independentes uns dos outros. A única coisa que os ambientes virtuais têm em comum é o hardware do servidor que hospeda os sistemas virtualizados. Não há empecilhos para a adoção de sistemas, respeitando-se, claro, a compatibilidade nata entre eles –, sendo que é nula a interdependência entre as soluções virtuais. Da mesma forma que um sistema operacional pode ser rodado em um hardware convencional, também pode ser em uma máquina virtual. A maioria dos equipamentos tem capacidade de hospedar uma máquina virtual, portanto, não é necessário ter um hardware específico para virtualizar. Basta um software especial que venha a igualar ou ir além do ambiente físico. Trocando em miúdos, o software simula o hardware, de forma que o sistema operacional é instalado sobre esse software. A consolidação e a racionalização de investimento salientam-se fortemente com as tecnologias de virtualização que, no limite, implicam investimentos menores na aquisição de servidores que, sendo em menor número e mais densos, ocupam menos espaço, são mais eficientes energeticamente e dissipam menos calor.
Servidores Blade
100%
4%
11%
27%
Nova geração de servidores Não é exagero afirmar que o segmento em âmbito mundial está vivenciando um dos momentos mais estimulantes na área de servidores x86. O mercado comprador tem à disposição tecnologias mais evoluídas, densas e rápidas e que têm menor consumo, a exemplo do Dual Core, (e, muito em breve o quadrinúcleo); SAS (Serial Attached SCSI de 2,5”) nos discos rígidos, FB-DIMM (Fully Buffered DIMM) em memória RAM e PCI-Express em I/O.
75%
50%
As soluções de gerenciamento do processador de serviços ainda são pouco utilizadas, mas conferem excelentes resultados. Elas permitem que as organizações de TI simplifiquem o gerenciamento do centro de dados e reduzam os custos operacionais, por meio da otimização das tecnologias de processador de serviços presentes nos servidores. Algumas ferramentas disponíveis no mercado monitoram e mantêm a saúde do servidor de forma proativa, possibilitando mais rapidez na detecção e resolução de problemas e garantindo funcionamento 24 horas por dia, 7 dias por semana.
25%
0% 2003
04
05
06
07
08
09
10
11
Rack Pedestal
20
Fonte: IDC 2007
Blade
Gerenciamento de TI e x ec u t i v e
r e p o rt
Conceituados como componentes de software utilizados para integração entre aplicações corporativas, assim como para realizar a conexão entre empresas, clientes e parceiros, os Web services cada vez mais recebem atenção de fornecedores de soluções que os vêm como uma tecnologia voltada para a interoperabilidade.
Intimamente ligada à virtualização, a tecnologia blade está na segunda geração e oferece redução de energia em média de 20%, entre outros ganhos. Servidores blade podem ser comparados a livros em uma prateleira, em que cada um é um servidor independente, com processadores próprios, memória, armazenamento, controladores de rede, sistema operacional e aplicativos. O servidor blade simplesmente desliza para dentro da baia do chassis e se conecta ao painel traseiro ou do meio, compartilhando energia, ventilação, drives de disquete, comutadores, portas e outros servidores da mesma natureza.
Vale recordar que a solução Web service é voltada para a integração de sistemas e a comunicação entre diferentes aplicações na linguagem universal XML e permite que aplicações recentes possam interagir com o legado. Além disso, possibilita a compatibilidade entre sistemas desenvolvidos em diferentes plataformas.
Orientada ao Data Center Corporativo, essa tecnologia permite incorporar em uma única enclosure cerca de 16 servidores de tecnologia Xeon, Itanium2 e Opteron, assim como servidores de armazenamento (storage blades) e que podem ser ligados como DAS (Direct Attach Storage) a um servidor blade. Há promessas no mercado, para breve, de que blades de armazenamento sejam partilháveis por vários servidores no ambiente virtual. Existem soluções que permitem ao CIO, dentro da mesma enclosure, estabelecer conectividade até 8 expansões redundantes. Elas poderão ser Ethernet ou Fiber Channel, em modalidades porta-a-porta (passthrough), switched e ainda Virtual Connect, um tipo de conectividade que permite criar uma camada abstrata entre os servidores blade e as portas físicas, suportando uma densidade de 64 servidores por armário de 42u (2 m de altura).
Continuidade das operações O mundo corporativo acordou para a importância de estabelecer um plano de emergência para assegurar o pleno funcionamento da infra-estrutura, no caso de acidentes ou incidentes que comprometam as instalações físicas. É necessário, além disso, assegurar a disponibilidade dos sistemas, contar com uma solução de backup eficiente, manter a documentação dos processos atualizada, bem como o pessoal treinado e capacitado. É importante que o gestor da TI se conscientize de que o conceito de segurança é muito amplo e começa antes do emprego puro e simples de ferramentas. A tendência natural é querer colocar cadeado em tudo, até onde não é necessário. Mas essa atitude pode elevar os investimentos, implementar soluções em áreas que não precisam tanto de proteção e deixar vulneráveis algumas áreas importantes. O segundo passo refere-se à verificação dos processos da empresa e ao estabelecimento de políticas de segurança. Depois dessas definições, partese para a escolha e o emprego de ferramentas e soluções para prevenir e evitar violações aos sistemas.
É fato que as soluções em blade não responderão a todas as necessidades da empresa. Hoje, ambientes consolidados e centralizados, típicos nas grandes empresas, são ideais para a adoção dessa tecnologia, ao passo que cenários distribuídos, ou menos numerosos, podem não justificar a aquisição da infra-estrutura base requerida para uma solução de servidores com essa tecnologia.
Web services
Finalmente, deve ser feito um trabalho interno de conscientização. Todos os funcionários devem ser treinados e orientados sobre as medidas de segurança adotadas. De nada adianta sustentar um gerenciamento de alto nível de exigência e investimentos em infra-estrutura, se não se dispuser de vários mecanismos sofisticados de senhas e reconhecimento de usuários. Depois de cercar todos os lados, fique atento também ao funcionário desavisado que pode deixar sobre a mesa, à vista de pessoas nãoautorizadas, um relatório confidencial, por exemplo.
O mercado dispõe de um amplo leque de opções para todos os tipos de gerenciamento e voltadas a atender às necessidades de empresas de diferentes portes e ramos de atividade. De acordo com o Gartner, os fornecedores de software de gerenciamento deverão basear as aplicações em Web services, em vez de adotar arquiteturas proprietárias, ou reestruturar os sistemas com foco nos modelos primários de comunicação entre os módulos pelo uso de protocolos abertos.
21
Gerenciamento de TI e x ec u t i v e
Administrar o acesso pessoal
r e p o rt
Não esquecer dos cuidados a serem tomados em relação às redes wireless. Além das ferramentas de
É preciso gerenciar as vulnerabilidades decorrentes do próprio crescimento do ambiente computacional. Uma saída recomendável é manter os Data Centers trancados a fim de eliminar os erros humanos decorrentes da interação físicas das pessoas com os equipamentos. Para diminuir essa interação física, é preciso conhecer e adotar tecnologias de acesso e de controle remoto para suportar as atividades diárias do Data Center.
proteção convencionais usadas em redes cabeadas, as redes sem fio exigem cuidados adicionais e específicos. O padrão de criptografia para redes locais sem fio, o WEP (Wired Equivalent Privacy) é bastante seguro, mas apresenta algumas restrições, por isso é recomendável que as empresas não se limitem a ele. É fundamental também fazer uma configuração confiável da rede wireless, com recursos de segurança inerentes aos pontos de acesso e instalação de firewall. Nos casos mais complexos, vale a pena adquirir equipamentos, software e serviços especializados.
De acordo com o Gartner, os funcionários são diretamente responsáveis pela violação de segurança, respondendo por metade das perdas de dados e informações. Estudo aponta que roubo de identidade cresceu 50%, com 15 milhões de usuários afetados pelo roubo em 2006, com perda média de US$ 3 mil por caso, dobrando o volume registrado em 2005. Dados do Infonetics Research dão conta de que as perdas relacionadas com falhas na segurança nas redes resultam em perdas de US$ 30 milhões ao ano. As corporações, de acordo com esse estudo, amargam uma perda média de 2,2% da receita anualmente.
Para garantir a segurança desse ambiente, são lançados constantemente novos padrões. A Aliança Wi-Fi divulgou o padrão WPA (Wi-Fi Protected Access) para o acesso de PDAs, com melhorias na criptografia dos dados e na autenticação do usuário em relação ao WEP. O consórcio desenvolveu também uma ferramenta, batizada de Zone, destinada a encontrar pontos de acesso WiFi entre os 12 mil hot spots (pontos de acesso públicos) instalados no mundo. No que se refere à inviolabilidade dos dados, são recomendáveis outros recursos, como os de uma rede virtual privativa. O uso do protocolo IPSec permite a criação de um túnel seguro entre a estação e o access point. Outros cuidados referem-se à encriptação dos dados e à monitoração em tempo real, por meio de ferramentas específicas, muitas delas distribuídas gratuitamente pela Internet.
Porém, é necessário implementar soluções que permitam identificar e reconhecer o usuário, para que se tenha certeza de que o funcionário que acessa informações e aplicativos é, de fato, o autorizado. Há que se ter em mente de que o perfil do usuário muda com o decorrer do tempo e é preciso ter o cuidado de bloquear os acessos aos sistemas ao funcionário que deixa a empresa. Não menos importante é o controle de acesso aos sistemas corporativos, tanto a funcionários internos (definir quem pode acessar e que tipo de informação), quanto a parceiros (clientes e fornecedores).
Contingência A questão de contingência está diretamente relacionada à necessidade de manter a disponibilidade dos sistemas, principalmente nos ambientes de missão crítica. É a partir da identificação do custo decorrente das interrupções e do tempo em que os sistemas ficam indisponíveis (downtime) que se determina a estratégia a ser adotada. Quanto menor for o downtime e o tempo de recuperação da informação, maior será o custo do projeto.
É importante que a empresa avalie, no mapa da rede, todos os pontos que devam ser cobertos por processos seguros. Isso pode ser feito começando pela avaliação da infra-estrutura de TI e utilização do diagrama da arquitetura da rede para determinar como e onde os usuários internos e externos podem acessar a planta. Dispor de uma lista com todos os servidores e sistemas críticos para a empresa constitui outra boa iniciativa, complementada pela relação dos funcionários que instalaram ou desenvolveram aplicações.
22
Gerenciamento de TI e x ec u t i v e
r e p o rt
Os fabricantes de equipamentos para redes, em geral, adotam conjuntos de padrões que permitem a operação de programas gerenciadores. O mais conhecido e utilizado é o SNMP (Simple Network Management Protocol ou Gerenciador de Protocolos de Rede Simples), aplicável a todos os sistemas. Esse protocolo foi projetado em meados dos anos 80 como resposta aos problemas de comunicação entre os diversos tipos de rede. A idéia básica era oferecer um modo de fácil implementação, com baixo overhead para o gerenciamento de roteadores, servidores, workstations e outros recursos de redes heterogêneas. O SNMP é um protocolo de nível de aplicação da arquitetura TCP/IP, operando tipicamente sobre o UDP (User Datagram Protocol).
Para algumas empresas, como bancos e operadoras de cartão de crédito, apenas alguns minutos fora do ar podem acarretar prejuízos de milhões de dólares. Isso sem contar o fato de ter a imagem de credibilidade abalada. Os riscos são minimizados com a adoção de máquinas redundantes à falha (espelhadas) e também de um outro site totalmente espelhado, que entra em atividade no caso de haver uma pane no sistema principal. São alternativas extremamente caras e que só se justificam pelo aspecto crítico das operações. As empresas com menos recursos podem usar como opção os sistemas de alta disponibilidade, compostos geralmente por vários servidores ligados em cluster. Considere, ainda, que uma parte das interrupções e problemas nos sistemas possa ocorrer por erros humanos de operação. Uma das formas de prever a viabilidade da utilizar ferramentas de gerenciamento é desenhar workflows para cada processo presente na empresa. Podem ser adotadas soluções que atendam, inicialmente, às áreas mais críticas e, em seguida, expandir o uso. Não existe, no entanto, nenhuma fórmula pronta. Podem ocorrer, também, problemas de integração posterior das diferentes soluções, embora isso seja contornado pelos fornecedores que conseguem customizar o software para cada situação e cliente.
Sob o SNMP, pequenos programas de gerenciamento, conhecidos como agentes, são executados num processador especial contido em diversos dispositivos ligados em rede, que monitoram esses dispositivos e coletam os dados estatísticos no formato conhecido como MIB (Management Information Base, ou Base de Informações de Gerenciamento). Um programa central, denominado Management Console Program, ordena os agentes em uma base regular e descarrega o conteúdo dos seus MIBs. O local ideal para um agente de gerenciamento é o hub, dispositivo no centro do sistema de cabos. Dessa forma, o agente pode monitorar o nível de atividade e o tipo de dado que vai e volta para cada estação cliente e para cada servidor. Em geral, os servidores têm seus próprios agentes, que reportam detalhes das condições do equipamento e das ações das máquinas cliente. Os agentes de gerenciamento também estão disponíveis para certos modelos de placas de rede e para produtos especializados.
Padrões estabelecidos Os programas de gerenciamento de rede reúnem várias ferramentas de monitoração e controle – no sentido de fornecer uma única interface de operação – e são executados em servidores, hubs e placas de rede. Sua função é coletar estatísticas do movimento dos dados e vigiar as condições que excedam o limite dos programas. Ao detectar algum problema, alertam ao programa de gerenciamento central, o qual pode desencadear algumas ações de reinicialização ou roteamento e pedir ajuda humana, mediante alarmes ou avisos.
23
Gerenciamento de TI e x ec u t i v e
r e p o rt
Facilitadores
Para redes corporativas constituídas de diversas LANs (redes locais) conectadas por WAN (rede de longa distância), é utilizado o protocolo RMON (Remote Monitoring) – uma capacidade de gerenciamento remoto do SNMP. Isso porque os enlaces de rede de longa distância, por operarem a taxas de transmissão inferiores às das LANs que as interconectam, passam a ter grande parte da sua banda de transmissão ocupada por informações de gerenciamento. O protocolo RMON oferece suporte para a implementação de um sistema de gerenciamento distribuído. Cada elemento RMON tem como tarefa coletar, analisar, tratar e filtrar informações de gerenciamento de rede e apenas notificar à estação gerente os eventos significativos e situações de erro.
Gerenciar o ambiente de TI pode se tornar mais fácil com a adoção de ferramentas, indicadores e metodologias que auxiliam os profissionais a dimensionar a utilização efetiva e o potencial de uso dos sistemas. O rol de produtos é vasto e variado. Atualmente, somam-se às soluções conhecidas e tradicionais, como Balanced ScoreCard, ROI (Return on Investment), TCO (Total Cost of Ownership), EVA (Economic Value Added) e Activity Based Costing, outros modelos que são empregados pelo setor corporativo, como o CobiT, ITIL e CMM. Desenvolvida nos Estados Unidos, a metodologia CobiT (Control Objectives for Information and Related Technology) foi criada em 1996, a partir de ferramentas de auditoria, funcionando como uma espécie de guia para a gestão da TI nas empresas. Inclui uma série de recursos como sumário executivo, framework, controle de objetivos, mapas de auditoria e um conjunto de processos de trabalho já estabelecidos e empregados pelo mercado, entre os quais se incluem o CMM, a ISO 9000 (para qualidade), BS7799/ISO 17799 (normas para segurança da informação) e o ITIL (para gestão do departamento de TI).
Metodologias e métricas Intensifica-se a cada ano, a necessidade de utilização, pelos gestores de TI, de metodologias e indicadores que lhes permitam estabelecer objetivos, monitorar os resultados e verificar, de forma objetiva, como e se as metas propostas foram atingidas. Com isso, ganha força o que se convencionou chamar de governança de TI, que nada mais é do que uma estrutura bem definida de relações e processos que controla e dirige uma organização. O principal foco é permitir que as perspectivas de negócios, de infra-estrutura, de pessoas e de operações sejam levadas em consideração no momento de definição do que mais interessa à empresa, alinhando TI à estratégia.
O CobiT independe das plataformas de TI adotadas pelas empresas e seu uso é orientado a negócios, no sentido de fornecer informações detalhadas para gerenciar processos. A metodologia é voltada para três níveis distintos: gerentes que necessitam avaliar os riscos e controlar os investimentos de TI; usuários que precisam assegurar a qualidade dos serviços prestados para clientes internos e externos e, auditores que devem avaliar o trabalho de gestão da TI e aconselhar o controle interno da organização. O foco principal é apontar onde podem ser feitas melhorias.
Além das métricas e metodologias que permitem mensurar a capacidade (em uso e em potencial) dos sistemas, ganha cada vez mais importância a adoção de padrões que assegurem e imprimam aos Data Centers corporativos mais flexibilidade. Esses padrões têm papel crítico no gerenciamento de ambientes heterogêneos, sem os quais seria impossível facilitar a integração e a interoperabilidade entre os diferentes sistemas e soluções. A associação DMTF (Distributed Management Task Force – www.dmtf.org) criou uma série de padrões, entre os quais se destacam o CIM (Common Information Model), WBEM (Web-Based Enterprise Management), DEN (Directory Enabled Networking), ASF (Alert Standard Format) e DMI (Desktop Management Iniciative). Em termos simples, o CIM pode ser entendido como um modelo conceitual para a descrição dos ambientes computacionais e de rede das corporações – componentes, configurações, operações, relacionamentos –, sem se referir a uma implementação em particular. 24
Gerenciamento de TI e x ec u t i v e
Complementar ao CobiT, o ITIL - Information Technology Infraestructure Library é uma biblioteca que descreve as melhores práticas de gestão, especificamente elaborada para a área de TI e a versão 3.0 foi lançada em agosto de 2007, com material em Português. Criado no final dos anos 80 para o governo britânico, o ITIL reúne um conjunto de recomendações sobre suporte de serviços (service support), que inclui cinco disciplinas e uma função; e entrega de serviços (service delivery), com mais cinco disciplinas. Os pontos focados apresentam as melhores práticas para a central de atendimento, gerenciamento de incidentes, gerenciamento de problemas, e gerenciamento financeiro para serviços de TI.
r e p o rt
Metodologias tradicionais • Uma das metodologias
mais visadas na atualidade é o Balanced ScoreCard, criada no início da década de 90 por Robert Kaplan e David Norton, ambos professores da Harvard University, nos EUA. Seu emprego permite a uma empresa obter uma base mais ampla para a tomada de decisão, considerando quatro perspectivas: a financeira (segundo a visão dos acionistas), a dos clientes, a de processos internos de negócios, e a de inovação. Na prática, a metodologia consegue mostrar o que é mais crítico, possibilitando direcionar os recursos para os processos que de fato adicionarão valor à empresa. Por ser complexa e envolver toda a estrutura empresarial, a adoção desse modelo deve partir da alta direção ou mesmo do próprio presidente da empresa.
Ambiente organizado • Voltado a auxiliar as empresas
a melhorar a produtividade dos processos de desenvolvimento de software e a organizar o funcionamento de seus ambientes de TI, o CMM é uma metodologia que mostra as metas a serem alcançadas, atuando como um modelo de orientação e qualificação dos estágios de maturidade. O CMM define cinco níveis de maturidade para os ambientes de desenvolvimento de software (inicial, repetível, definido, gerenciado e otimizado), sendo que cada um deles é composto por um conjunto de áreas-chave de processo KPA (Key Process Areas) que descrevem as questões e grandes temas que devem ser abordados e resolvidos para se atingir um determinado nível.
Outro indicador de desempenho fundamental no setor corporativo é o ROI, ou retorno de investimentos. Utilizado para apoiar e justificar novos investimentos em tecnologia, o ROI é calculado, considerando o benefício anual proveniente do investimento dividido pelo montante investido, sendo expresso em porcentagem e, portanto, facilmente comparável a outras taxas, por exemplo, à de juros e à de custo do capital, fornecendo um valor bem definido. Esse indicador, no entanto, não leva em consideração os riscos envolvidos e nem outras variáveis durante um determinado período, não sendo muito indicado para a avaliação de projetos de longa duração. Existem ainda outras metodologias e métricas oriundas de outras indústrias, a exemplo de ABC (Activity Based Costing) e do EVA (Economic Value Added), além das citadas, que constituem importantes ferramentas para auxiliar os gerentes de tecnologia a monitorar e a controlar custos e para avaliar benefícios. O emprego desses sistemas, de forma individual ou combinado, está se tornando obrigatório para as corporações se manterem ágeis e para assegurar seu poder de competitividade.
25
Gerenciamento de TI e x ec u t i v e
r e p o rt
benefícios
Boa gestão gera resultados positivos MELHORES PRÁTICAS NO GERENCIAMENTO CONFEREM CREDIBILIDADE E REDUÇÃO DE ESPAÇO E DE CUSTOS
Passos para a Dynamic IT O conceito prevê que para uma infra-estrutura ser excelente é preciso seguir os itens abaixo: • Incrementar a capacidade de gerenciamento e design and-to-end da infra-estrutura;
É sabido que entre os principais desafios no gerenciamento de data centers, infra-estrutura de TI e de redes, estão fatores como consolidação de servidores e armazenamento, novas tecnologias de processamento e armazenamento, ILM, Grid Computing, Dynamic IT, virtualização de servidores e armazenamento e gerenciamento de sistemas e infra-estrutura. Se esses itens se colocam como desafios, depois de superados pelo gestor de tecnologia, também são as ferramentas que trarão os benefícios e ajudarão a atingir e a apresentar melhores resultados.
• Possuir recursos modulares, baseados em padrões e virtualizados; • Considerar modelos adaptáveis de compra e fornecimento de TI (interno e externo); • Adotar modelos flexíveis de custo operacional, transformando custos fixos em variáveis.
Além dos benefícios tecnológicos há ainda os de ordem financeira e econômica, tendo em vista que há, de forma comprovada, redução diretamente nos custos de operação e manutenção da rede. Analistas de mercado afirmam que a gestão correta de processos computacionais nesses vários ambientes operacionais e de desenvolvimento aumenta a produtividade e a lucratividade das companhias. Com todos esses fatores a seu favor, o CIO poderá voltar a atenção para a busca de ferramentas, soluções e produtos; acompanhar de perto as inovações e as tendências tecnológicas que possam vir a beneficiar a atividade-fim da empresa e gerar mais competitividade frente aos concorrentes, que é o que todas almejam.
De forma simples e resumida, é possível citar como benefícios de uma boa gestão da infra-estrutura tecnológica, seja ela de qualquer porte e nível de maturidade, a drástica redução do impacto de incidentes e de problemas; a prevenção e a antecipação de ocorrências indesejadas (queda de energia, aquecimento, falhas de hardware, software ou humana; ataques internos ou externos...). Além disso, a produtividade pode crescer de maneira considerável, com a máxima utilização de recursos em ambientes complexos, distribuídos e heterogêneos de computação em data centers ou plantas remotas.
26
Fonte: IDC Brasil – 2007
• Direcionar os investimentos para o modelo de Arquitetura orientada a serviços;
Gerenciamento de TI e x ec u t i v e
Nesse sentido, tecnologia e todas as suas funcionalidades desempenham papel essencial e contribuem significativamente para a obtenção dos bons resultados. A dinâmica do mercado sofre a ação de vários agentes, além das pressões dos concorrentes. Portanto, para sobressair é preciso adotar adequadamente os conjuntos de processos, os quais requerem aplicações e sistemas inovadores, além de acordos de níveis de serviço muito bem estudados e estruturados para suportar a estratégia de negócios, tendo como pilar de sustentação a tecnologia e o CIO.
r e p o rt
Resultados concretos A correta adoção de soluções ou a escolha de terceirização do gerenciamento da infra-estrutura de TI acarretam entre outros benefícios: • Disponibilidade máxima do serviço de TI; • Otimização de processos operacionais; • Redução do número de incidentes; • Melhor uso da equipe de TI; • Redução do impacto de incidentes via solução adequada;
Além da tecnologia
• Gestão dos SLAs;
Estar totalmente preparado e pronto para responder imediatamente às ameaças existentes e recuperar-se de problemas, de qualquer natureza, que envolvam o departamento de TI é requisito básico para quem ocupa cargo de direção em tecnologia. Há ferramentas que propiciam resultados positivos nesse sentido e, mais do que isso, que antecipam problemas e falhas. São capazes de indicar o ponto exato em que a rede está em risco ou em que toda a rede estará em risco. Lembre-se de que, para se beneficiar dessas funcionalidades, é preciso integrar as soluções de gerenciamento e armazenamento, aos sistemas de segurança. Um sistema automatizado de gerenciamento auxilia a equipe a superar limites técnicos e operacionais existentes – já não é de hoje –, entre as gerências de armazenamento, os sistemas e as soluções de segurança, fazendo com que o tempo de resposta a uma ameaça diminua e as chances de sucesso aumentem.
• Alta satisfação do cliente interno ou externo; • Redução de custos financeiros; • Redução no custo de recursos computacionais; • Redução da complexidade de gerenciamento; • Ampliação de espaço físico.
Os ganhos da correta gestão de infra-estrutura passam por questões além das tecnológicas, diante da própria maneira como se adquire, aplica e administra processos computacionais e pela evolução da TI. O primeiro deles é o efeito da velocidade, que significa a capacidade de acompanhar todas as informações que afetam direta ou indiretamente os negócios. O segundo é o efeito da complexidade, que implica administrar a diversidade de necessidades criadas por uma corporação automatizada e, em última instância, por uma sociedade informada, ou seja, a capacidade de oferecer produtos customizados para cada cliente interno ou externo. E, finalmente, o efeito da constelação, que se refere à capacidade de perceber as inúmeras redes que estão interligadas em um negócio. Para conquistar esses ganhos, a forma de atuação não se restringe a identificar áreas de negócios, fornecedores e consumidores, mas também exige um cuidado especial com a estratégia, que precisa ser capaz de coordenar as várias pontas que compõem a atividade econômica.
27
Gerenciamento de TI e x ec u t i v e
r e p o rt
Os players da indústria de TI disponibilizam serviços para prover acesso remoto a aplicações de servidores, cobrados de acordo com o volume de uso. A estratégia é atender às empresas que precisam lidar com grande volume de servidores, fator que encarece a aquisição, o gerenciamento e a manutenção. É possível utilizar o poder computacional dos servidores de data centers que ficam instalados nas próprias fabricantes, ou contratar os que oferecem esse tipo de prestação de serviços, via acesso remoto, pagando pela carga utilizada durante o mês. No mesmo modelo de negócio, existe no mercado o gerenciamento dos serviços de servidores e rede, como conectividade com Internet, armazenamento, backup e firewall.
Algumas concepções da forma de contratar TI e o desenvolvimento de novas capacidades para responder a tudo o que o mercado apresenta, tornando a empresa mais eficiente e obtendo vantagens sobre os concorrentes, mudam a forma de fazer negócios. O modelo sob demanda tem diferentes alcances em diferentes indústrias. Na farmacêutica, por exemplo, essas soluções poderão ajudar as empresas a reduzir o tempo para lançar novos medicamentos, o que lhes trará vantagens em relação aos competidores mais lentos. Já no setor automobilístico, auxiliarão na melhoria do gerenciamento da cadeia de distribuição e de pedidos, além de otimizar a fabricação de peças, seus processos de desenvolvimento de projetos e fabricação e a administração de produtos, por meio de seus ciclos de vida.
Com o gradativo, mas crescente aumento da realização de trabalho móvel e distribuído, os sistemas operacionais e as aplicações atuais de gerenciamento oferecem um largo espectro de ferramentas que permite monitorar e gerenciar os sistemas cliente de forma remota, controlando o inventário, solucionando problemas e instalando ou renovando software. As soluções que possibilitam o gerenciamento remoto da base de usuários móveis vêm a facilitar, principalmente, as tarefas de manutenção e help desk pelo CIO e sua equipe.
Eonomia do Datacenter 2.0 Desvio do gerenciamento de requisitos Gasto (US$B)
Lógico Base Instalada do Servidor (Milhões)
Poder e resfriamento dos custos x8
300
Gerenciamento de servidores e administração de custos x4 250
Novo gasto do servidor Físico Base Instalada do Servidor (Milhões)
200 150 100 50
28
10 20
09 20
08 20
07 20
06 20
05 20
04 20
03 20
02 20
01 20
00 20
99 19
98 19
97 19
19
96
0
Fonte: IDC 2007
Virtualização do Gerenciamento de intervalo
Gerenciamento de TI e x ec u t i v e
r e p o rt
Credibilidade e confiança podem ser conquistadas com o pleno funcionamento da infra-estrutura, mediante o atendimento imediato e perfeito ao usuário final. Mas os ganhos da disponibilidade da rede não são somente do último elo da cadeia. Eles beneficiam também o varejista, a operadora de cartão de crédito, a operadora de telecomunicações em termos financeiros e de imagem. É fácil imaginar a situação: véspera de uma data comemorativa como o Natal, dia das crianças ou dia das mães e o sistema da loja de brinquedos ou de perfumaria e roupas fica fora do ar. Toda a entrada de valores seria transferida para uma operadora concorrente.
Se um usuário tiver problemas com um aplicativo, o pessoal técnico poderá visualizar o problema e solucioná-lo remotamente. Segundo o Gartner, as corporações podem registrar uma economia da ordem de US$ 21 a US$ 77 por máquina ao ano, dos custos de help desk, apenas adotando essa prática. O corte de custos e a otimização do gerenciamento dos ambientes distribuídos são alguns dos itens que compõem a lista de benefícios percebidos com a adequada gestão da infra-estrutura. Para tanto, é preciso espalhar pela corporação estações-reserva pelas quais os funcionários podem fazer backups e repor componentes dos sistemas, conforme as necessidades. Desse modo, são criadas estações de serviços voltadas para atender os usuários de notebooks e ajudá-los a solucionar problemas de forma rápida e eficiente.
Vale ressaltar que os benefícios a serem conquistados com o gerenciamento proativo de um data center e redes estão diretamente relacionados ao montante de investimentos direcionado a essa atividade que tem impacto nos negócios e nos clientes. O gestor terá retorno positivo ao auxiliar particularmente as empresas de médio e de pequeno portes a tornarem a infra-estrutura de TI mais robusta. O acompanhamento remoto e em tempo real de um servidor corporativo previne e com agilidade eventuais problemas ao detectar desvios e procedimentos atípicos. O sistema envia um alerta que pode ser por e-mail, pager ou celular ao administrador da rede, que terá ações diretas sobre o problema, antes mesmo que o hardware ou o software sofram ou provoquem algum impacto no processamento. Essa é uma das funcionalidades mais simples do gerenciamento, mas que incorre em efetivos ganhos. Nesse caso, um sistema de redundância, se a atividade-fim for de missão crítica é aconselhável.
Em resumo, as melhores práticas para o bom gerenciamento da base de PCs recomendam que sejam tomadas algumas atitudes simples, como substituir PCs de forma proativa, simplificar e padronizar o ambiente, segmentar a base de usuários, manter os softwares atualizados, otimizar o processo de distribuição de sistemas e monitorar o ambiente móvel por meio de soluções distribuídas.
Credibilidade Que atire a primeira pedra quem nunca passou por situações em que enfrentou problemas por conta de uma rede indisponível. Em uma loja, depois de tudo escolhido, ao pagar, o sistema está fora do ar; um site que precisa ou gostaria de acessar ou um caixa eletrônico indisponível no meio da madrugada ou no momento em que você mais precisa ou que não devolve o seu cartão do banco. Ainda hoje essas ocorrências são freqüentes nas redes com informações distribuídas entre vários computadores interligados por LANs ou via Web e enfurecem os usuários.
A rede bem gerenciada e funcionando sem paradas faz com que se resolva a grande maioria das falhas, de forma transparente ao usuário que, não se sentindo lesado com o fato, não reclamará nem com a empresa, nem junto aos órgãos de defesa do consumidor.
29
Gerenciamento de TI e x ec u t i v e
r e p o rt
Muitas empresas estão obtendo consideráveis ganhos com a otimização do gerenciamento do parque de desktops. Um exemplo vem de umas das maiores empresas de Contact Center do Brasil, que fornece solução completa de relacionamento com clientes para as empresas do mercado brasileiro, disponibilizando, para isso, dois sites próprios localizados em São Paulo, além de administrar três sites de clientes, em São Paulo, Campinas e Londrina. Gerenciar a infra-estrutura técnica que suporta o Contact Center é, portanto, essencial para os seus negócios. Nesse sentido, a empresa optou por adotar as soluções voltadas para gerenciar o ciclo de vida de desktops, notebooks, handhelds, servidores Windows, Linux e Unix, além de ativos fixos, providenciando a integração completa e soluções de gerenciamento de sistema para clientes, dispositivos móveis e servidores, com rápido retorno de investimento.
A destinação de recursos financeiros para a área de gerenciamento deve ser dimensionada conforme o porte da companhia, o tamanho e a complexidade da infraestrutura e, ainda deve ser observado o quanto é crítico o serviço prestado por meio da rede. Para que se chegue próximo do ideal em termos de resultados satisfatórios, um procedimento que não pode ser deixado de lado é o SLA, o já conhecido acordo de nível de serviço. É por meio dele que o gestor poderá exigir e cobrar o que foi prometido e acordado com um integrador, uma revenda ou um VAR (value added reseller). Mediante um SLA bem elaborado, uma empresa ou mesmo o departamento de tecnologia poderá garantir aos usuários e clientes que a rede e outros serviços prestados ficarão disponíveis por determinado tempo (normalmente a promessa é de 99,9%) e por determinado período, um ano, por exemplo. Isso vai se refletir em acúmulos de benefícios.
A empresa automatizou a implantação, manutenção e suporte, de acordo com os padrões dos sistemas instalados nos desktops e, com isso, foi possível automatizar todo o serviço de configuração, resultando em uma grande economia de tempo e de recursos financeiros na realização da tarefa. Uma máquina foi preparada manualmente por um técnico com as configurações do cliente. A partir desse equipamento, criou-se uma imagem que foi usada no processo de clonagem, o qual configurou os demais computadores, sendo que o procedimento, em cada equipamento, levou menos de 10 minutos. A solução foi considerada vital para o negócio porque a distribuição de softwares – principal etapa do processo de configuração – precisa ser feita de maneira ágil e confiável, mantendo a qualidade.
De novo, a acentuada redução de custos e de prejuízos de várias ordens causados pela disponibilidade da rede e pelo corte de gastos provocado pela otimização de processos operacionais são os pontos que mais motivam a adoção do gerenciamento de infra-estrutura e são apenas os primeiros resultados efetivos da tecnologia. Vale lembrar que, para surtirem os resultados desejados, as soluções a serem adquiridas devem apresentar elevado nível de qualificação e confiabilidade e oferecer suporte do fabricante e também do integrador terceirizado, caso seja contratada empresa do mercado. Além disso, a equipe interna deve ter experiência em implementação, uma vez que para um projeto de infraestrutura é de fundamental importância bom conhecimento de redes, processos operacionais e das próprias ferramentas. Caso contrário não hesite em contratar um prestador de serviços que apresente em suas credenciais idoneidade, tempo de mercado e casos de sucesso de clientes em que já tenha trabalhado. Solicite e avalie também as certificações e a oferta de suporte técnico pré e pós-venda.
Benefícios em redução de custos por meio do gerenciamento adequado também são atingidos por uma das companhias líderes do setor automotivo, que se rendeu à adoção das melhores práticas para renovar o seu parque de microcomputadores. A fabricante possui centenas de equipamentos com alto poder de processamento em seu parque instalado, sendo cerca de 20% desses novos computadores são notebooks equipados com processadores de última geração. O objetivo da companhia é analisar como as várias categorias de funcionários se beneficiarão da tecnologia móvel. O acesso desses usuários à rede corporativa da empresa se dará por meio de rede WWAN.
30
Gerenciamento de TI e x ec u t i v e
Blades
r e p o rt
A saída, de acordo com o analista, é investir no que a consultoria chama de Dynamic IT. O conceito compreende tecnologias como virtualização e SOA (Arquitetura Orientada a Serviços) e oferece, além de mais flexibilidade às companhias, redução de custos. Dados apresentados por Mauro Peres, diretor geral da IDC Brasil, mostram que, entre as grandes corporações norte-americanas, apenas 3% já se encontram no grau mais avançado de adoção ao conceito. A maioria ainda está em um estágio intermediário.
No tocante a blades os benefícios são claros e bastante palpáveis, principalmente para quem executa tarefas de descarregar centenas de cabos que passam pelos racks, apenas para adicionar ou remover servidores. O aumento de espaço físico é realmente visível e considerável. Com unidades de comutadores e energia compartilhadas, pode-se liberar um espaço significativo, tendo em vista que servidores blade permitem mais densidade com muito mais facilidade.
Formulado e proposto pela IDC, o Dynamic IT estabelece que a próxima geração dos ambientes de tecnologia da informação está relacionada à criação de uma área de TI de alta performance, capaz de suportar as rápidas mudanças dos ambientes de negócio, ao mesmo tempo em que mantém flexibilidade e controle dos custos operacionais.
Os pontos positivos ao adotar a tecnologia blade são palpáveis para quem tem como atribuição o manuseio de cabos que se conectam aos racks para adicionar e remover servidores. Algumas funcionalidades como unidades de comutadores e o compartilhamento de energia, permitem o aumento significativo de espaço, tendo em vista que servidores que rodam sob a tecnologia blade conferem maior densidade e facilidade computacional. Outro benefício é que a expansão não requer equipes de profissionais, paradas ou altos investimentos.
A consultoria observa que enquanto as organizações, atualmente, têm de lidar com a crescente pressão e cobrança para serem mais dinâmicas, historicamente, as áreas de TI sempre responderam de maneira reativa e lenta às mudanças dos ambientes de negócios. Para quase todas as companhias, a alta complexidade ainda impera e a utilização dos recursos de tecnologia está abaixo do que deveria. Sendo assim, para muitos diretores de TI, o principal desafio está relacionado à dificuldade para aprovação de verbas e novos investimentos para mudanças e criação de uma nova infra-estrutura, mais dinâmica e flexível.
Blades de alguns fornecedores de TI se resumem ao tamanho, ou seja, apenas uma maneira de apresentar um servidor de pacote de 2 ou 4 vias. Outros adotaram abordagens diferentes para a tecnologia e oferecem ações complementares que ajudam os clientes a tratar os problemas que surgem frente ao atual cenário de rápidas mudanças de negócios. Porém, é consenso entre os fabricantes como um todo, que os recursos da tecnologia garantem aumento da confiabilidade, acessibilidade e utilidade. O resultado da inovação da tecnologia é uma solução simplificada, mais econômica, com menor consumo de energia e com menor geração de calor. As inovações passam também pelo aumento da vida útil, melhoria e facilidade na configuração e escala.
Em muitas empresas hoje, departamentos de TI são obrigados a promover seu autofinanciamento para conseguir implementar novas iniciativas e tecnologias que permitam a criação desse novo ambiente. Portanto, a busca pela redução dos custos operacionais, visando a liberação de verbas para novos projetos, tem sido uma constante nesse novo cenário. A cobrança pelo desenvolvimento de uma infra-estrutura mais dinâmica, ao mesmo tempo em que reduz os gastos com TI, exigirá dos executivos da alta direção um apurado senso seletivo e uma visão clara das prioridades, no que tange à montagem de um plano de investimentos para a nova infra-estrutura.
Dynamic IT: um capítulo à parte Para a consultoria IDC resultados efetivamente positivos somente serão atingidos com a adoção do conceito de Dynamic IT. As empresas precisam adotar uma infra-estrutura de TIC modular com recursos virtualizados. Segundo Reinaldo Roveri, analista sênior de servidores e storage da consultoria IDC Brasil, o problema hoje é que os altos custos de manutenção dos recursos consomem quase 70% do orçamento. “Sobra muito pouco para investir em novos projetos”, alerta.
31
Gerenciamento de TI e x ec u t i v e
r e p o rt
A capacidade de interligar estes dois pilares por meio do gerenciamento total (end-to-end) da área de TI deve ser chave para a criação de uma infra-estrutura dinâmica. Como observado previamente neste texto, os dois pilares (negócios e TI) nunca andaram bem alinhados e ainda possuem barreiras em muitas organizações. Para que uma empresa possua tanto a infra-estrutura quanto a área de TI verdadeiramente dinâmicas, é vital que essas barreiras entre processos de negócio e TI sejam quebradas em quaisquer novos esforços para a transformação, atuais e futuros, não importando o quão pequenos ou específicos sejam.
A mudança de postura principalmente dos fornecedores de storage, tem contribuído para impulsionar o Dynamic IT. O avanço na adoção das tecnologias de virtualização é outro fator que colabora para a evolução do conceito. Esse tipo de solução é que vem permitindo às empresas adotarem, por exemplo, conceitos de gerenciamento de ILM (Ciclo de Vida das Informações), uma das partes mais importantes do Dynamic IT. Com base em pesquisas e estudos da IDC junto a empresas que já vivem esse cenário, percebe-se que esses planos são regidos, basicamente, por três princípios prioritários: rapidez (responder mais rápido às mudanças dos negócios), desempenho (prover melhores níveis de serviço para suporte aos negócios) e custo (reduzir continuamente os custos de TI).
O conceito de Dynamic IT entende que o máximo de recursos possível que suporta um processo de negócios deve estar integrado de maneira lógica (end-to-end), permitindo um gerenciamento dinâmico desse processo. A equipe de operações deve possuir uma visão clara de toda a cadeia de valor de TI (servidores; storage; redes; sistemas de infra-estrutura; dados; middlewares; aplicações; workflow; comunicação, colaboração e dispositivos em posse dos usuários finais) que suportam a execução dos processos de negócios. Da mesma maneira, as equipes de desenvolvimento e arquitetura de sistemas devem ter uma visão clara do ambiente operacional que suportam seus sistemas, para que seja integralmente considerado durante o desenho de novas aplicações e processos.
Estas três prioridades direcionam as empresas a dois pilares principais que devem ser adotados e interligados no plano corporativo para a implementação de uma infra-estrutura dinâmica. São eles: 1) Execução e automação dos processos de negócios • Foco em responder mais rápido às mu-
danças no mercado por meio do aperfeiçoamento da capacidade de desenvolver e integrar aplicações, dados e processos que suportam novos requerimentos e iniciativas de negócio. Utilização de TI para monitorar o desempenho e acelerar os ajustes executivos operacionais necessários para responder às mudanças do mercado.
2) Gerenciamento e automação das operações de TI • Foco no aumento da qualidade da entrega de TI
ao negócio, por meio de melhores níveis de serviço, ao mesmo tempo em que se reduz o custo da infra-estrutura necessária. Interligar, monitorar e gerenciar (end-toend) todos os elementos operacionais que suportam as atividades da empresa, desde hardware até as aplicações, dados, processos operacionais e processos de negócio.
32
Gerenciamento de TI e x ec u t i v e
r e p o rt
cases
A escolha da solução ideal passa por análise refinada CONFIRA ALGUNS EXEMPLOS DE DIFERENTES SEGMENTOS DA ECONOMIA COM DIVERSAS NECESSIDADES E COMO E QUAIS FORAM AS SOLUÇÕES IMPLEMENTADAS Gerenciar todo o ambiente de infra-estrutura de TI e, ao mesmo tempo, ampliar e manter o padrão de qualidade de acesso: esses foram os principais desafios enfrentados pela equipe interna de tecnologia, composta por 12 profissionais alocados no centro de desenvolvimento de uma grande instituição pública, quando decidiu transferir o seu data center corporativo. Diante dessa situação detectou que era preciso implementar um sistema eficiente de gerenciamento de infra-estrutura de TI, que fosse realizado remotamente, e que agregasse valor e ganhos de produtividade às atividades desenvolvidas pelo projeto. Então, a solução foi também contratar uma equipe de engenharia e consultores especialistas em desenvolvimento de soluções de acesso e gerenciamento para data centers corporativos, que viesse a apoiar e a implementar um sistema de gerenciamento de infraestrutura de TI com acesso remoto.
Muitas vezes, a implementação começa restrita a um departamento específico, e acaba crescendo para atender toda a infra-estrutura de TI devido à sua eficiência e rapidez sempre que uma intervenção seja necessária.O investimento inicial do sistema de gerenciamento remoto do data center, para esse projeto foi de aproximadamente R$ 70 mil. O projeto conta com 48 equipamentos para gerenciar a rede, formada por 13 servidores embarcados em plataforma Intel e 35 roteadores. Outro exemplo é o de uma empresa da construção civil em fase de expansão pelo território nacional, que tinha como necessidade conectar a matriz, em São Paulo, com as demais localidades nas quais mantinha atuação para a troca e disponibilização de informações aos envolvidos nas obras. Como a infra-estrutura da construtora não suportaria a implementação de um ERP para o controle de plantas, croquis, lista de materiais e que iria solucionar tranqüilamente a questão, a saída foi terceirizar.
O resultado foi que o projeto permitiu o monitoramento de todo o processo da rede, a quilômetros de distância, de forma segura e ágil, garantindo total disponibilidade dos ativos, com a melhor relação custo-benefício. O data center escolhido para esse projeto disponibiliza completa solução de gerenciamento de infra-estrutura de TI, englobando desde o gerenciamento de servidores até equipamentos de rede como switches, roteadores e hubs, por exemplo. Além disso, oferece soluções modulares, fazendo com que o investimento dos clientes seja preservado, mesmo que seu ambiente cresça e novas tecnologias sejam utilizadas.
A empresa optou por hospedar o ambiente de TI em um data center que, além de abrigar o ERP e seus módulos de controle de estoque, orçamento, financeiro e de compras, passou a gerenciar remotamente todos os dados e conferiu maior segurança aos projetos. A construtora paga mensalmente pelos serviços profissionais do data center e não teve de investir na instalação e manutenção da infra-estrutura com hardware, software e sistemas de segurança e redundância. A terceirização, nesse caso, foi a medida mais adequada ao cliente, que desembolsaria somente num primeiro momento, cerca de R$ 10 mil, além dos custos posteriores de upgrades e manutenção.
33
Gerenciamento de TI e x ec u t i v e
r e p o rt
Segurança
Os data centers corporativos mantêm, em sua maioria, recursos avançados que garantem a segurança e a disponibilidade das informações do cliente 24 horas pelos 365 dias do ano. Para tanto, conta com firewalls, IDS e IPS de última geração, e oferecem redundância, backup dos dados e monitoramento ininterrupto da rede.
No tocante ao gerenciamento de e-mails e segurança, uma empresa do setor farmacêutico criou um comitê de Segurança da Informação, composto por representantes de várias áreas da companhia. Esse grupo definiu a política de uso da Web. Na prática, o documento estabeleceu critérios para uso de e-mails e os tipos de sites que podem ser acessados e os que estão proibidos: pornográficos, racistas e de cunho informativo duvidoso. A ferramenta escolhida para efetuar esse controle foi um software de mercado, instalado antes do firewall. O aplicativo bloqueia qualquer tentativa de acesso a conteúdo não-autorizado. Quanto aos e-mails, foi proibida a realização de downloads de aplicativos, por firewalls e customizações internas. Com essas medidas, o consumo de banda caiu 20%.
Infra-estrutura integrada à Web No caso de uma pequena companhia aérea com base em todas as regiões do País, a necessidade era melhorar o sistema de inventário e a distribuição de softwares. A ferramenta escolhida integrou a infra-estrutura em um único ambiente Web e reduziu os custos de manutenção. Além disso, o CIO conseguiu, com a ajuda de um integrador especializado, conectar de forma mais segura os 35 escritórios da companhia. Com um parque instalado de 170 máquinas, a empresa interliga as filiais via Web e seus dois principais ambientes com rede VPN como redundância, e os demais escritórios via Web convencional. A companhia destina cerca de R$ 4 mil por mês no projeto, incluindo outsourcing de servidores e a licença do software. Atualizações de programas e correções podem ser feitas remotamente ou agendadas de qualquer computador com acesso à Internet.
Proporção de investimentos entre hardware, software e serviços US$ Bilhões 35.000 Serviços
30.000
Software 25.000
Hardware
41%
20.000 14%
15.000 35%
10.000
45%
16% 5.000
Fonte: IDC 2007
11
10
20
09
20
08
20
20
07 20
06 20
05
04
20
20
03 20
02
01 34
20
00
20
20
99 19
98 19
97 19
96 19
95 19
94 19
93 19
19
92
48%
Gerenciamento de TI e x ec u t i v e
r e p o rt
Na segunda etapa de implementação, está previsto o cálculo dos custos dos projetos da área de TI e o controle dos perfis dos funcionários, dos recursos financeiros e da infra-estrutura. Além disso, a gestão da criação, registro e disseminação de idéias. Os investimentos, disponíveis para os anos de 2007 e 2008 devem chegar na casa dos R$ 130 milhões. A segunda fase do projeto deve ser concluída em julho de 2008.
Todos sabem que uma das principais brechas para incidentes de segurança é o sistema de e-mail. Apesar de, na maioria dos casos, as empresas contarem com ferramentas para monitoramento de e-mails, antivírus e firewall, todo dia surgem novas pragas virtuais que podem infestar os sistemas e causar graves transtornos. Em um banco estadual, por exemplo, uma das formas de contornar o problema foi limitar o tamanho dos arquivos anexados nas mensagens recebidas por e-mail. Esses arquivos não podem ter mais que 500 KB e, em determinado nível, não mais do que 3 MB. Também foram adotadas medidas que excluem arquivos com extensões como. exe, .tif, .pdf, e .scr diretamente no servidor, assim como a adoção de firewall e antivírus.
Controle de inventário Esse caso de sucesso vem também de uma instituição bancária que atingiu seu objetivo de controlar e fazer inventário da utilização dos ativos, em atendimento às exigências de auditorias interna e externa com a implementação, por um integrador, de ferramenta disponível no mercado. Há relatos do CIO dando conta que a meta foi atendida e ultrapassada, mediante as funcionalidades extras da solução, permitindo, inclusive, auditar o contrato de outsourcing de impressão mantido pelo banco.
Setor financeiro Com o objetivo de solucionar o problema de otimização e rendimento, o departamento de TI de um banco, considerado até então um setor desorganizado e que consumia recursos sem apresentar o retorno desejado, foi em busca de ferramentas que auxiliassem na administração e na melhoria da eficiência. TI tinha como tarefas integrar os negócios, fornecer informações e valores e proporcionar iniciativas que fossem ao encontro das necessidades da instituição.
O sistema escolhido controla 100% do parque de microcomputadores e também a utilização de softwares e serviços diversos. O produto gerencia licenças de software para controle de report a fornecedores e também o hardware, no que diz respeito à capacidade do parque instalado, além de promover o controle efetivo das modificações e substituições de periféricos. Ele foi escolhido por oferecer mais funcionalidades do que os concorrentes, sem que o cliente tivesse de pagar algo além.
A solução adquirida foi implementada para controlar as solicitações que chegavam ao setor, levantando quais as prioridades; acompanhar os projetos em todas as fases do desenvolvimento; administrar os recursos encaminhados à área de TI e, por fim, suportar o modelo COBIT de gestão e controle, visando o acesso a todas as operações em tempo real.
Projetos complexos Uma operadora global de telecomunicações tinha como objetivo oferecer serviços de TI sob demanda aos usuários. Portanto, necessitava que as informações e aplicações tivessem alta disponibilidade. Com a complexidade tecnológica aumentando de forma exponencial, é necessário ter uma infra-estrutura flexível no data center, que permita priorizar as necessidades dos clientes de forma efetiva. Isso é essencial para a oferta de aplicações nos níveis de serviço especificados nos acordos. A operadora conseguiu seus objetivos ao adquirir no mercado uma solução que utiliza capacidades centralizadas e baseadas em políticas específicas, que resultou na maximização da disponibilidade de aplicações críticas e ajudou a empresa a responder de forma mais eficiente às necessidades de sua atividade-fim.
O projeto desse banco consistiu em observar o progresso do trabalho, automatizar os processos via disciplina financeira e estruturação do Balanced Scorecard (BSC), com painéis de controle personalizado e integração com o sistema de help desk, para atendimento correntistas. Os resultados mostram que o departamento de TI começou a priorizar os negócios e os recursos passaram a ser utilizados de melhor forma, além do gerenciamento dos riscos do projeto e diminuição do tempo de entrega.
35
Gerenciamento de TI e x ec u t i v e
r e p o rt
Gestão de SLA
A quantidade de plataformas existentes dessa outra instituição bancária nacional torna o ambiente de TI bastante complexo. E, exatamente por isso, precisava melhorar o gerenciamento de dados. O Banco está investindo R$ 800 mil no projeto que fará o gerenciamento central dos servidores dos softwares da instituição, além de informar os níveis de serviços fornecidos pela TI do banco para usuários e clientes. A solução, que tem foco em governança de TI, será responsável pela administração de toda a infra-estrutura de dados (incluindo servidores e sistemas de storage), mais bancos de dados, além de mais de 300 servidores, todos de diversos fabricantes e plataformas proprietária e livre.
Um caso interessante é o gerenciamento de SLA. Uma empresa de análise de crédito deve entregar aos clientes essas análises mais rapidamente do que a concorrência. Isso levou o departamento de tecnologia a procurar por uma solução que o auxiliasse a cumprir um SLA mais rigoroso, superando assim, seus rivais. Para TI, isso significa investir em alta disponibilidade do sistema e monitorar constantemente a utilização dos serviços pelos cerca de 400 mil clientes em mais de 30 segmentos. Desde o início deste ano, a empresa está utilizando uma nova aplicação para fazer a gestão do SLA, com a vantagem de simular cargas e prever impactos no acordo, tomando providências para que o cliente não seja afetado. A ferramenta se revela mais importante em datas comemorativas, como Natal ou Dia das Mães, quando muitos clientes varejistas da companhia intensificam acentuadamente o número de consultas diárias, causando picos e podendo atingir aumento de 70% de uso. Em um dia normal, realiza em média cerca de 4 milhões de transações. A aplicação adotada analisa em tempo real todo o caminho das transações, nas aplicações e na infra-estrutura, inclusive em componentes externos. O resultado é que a empresa pode fazer ofertas mais agressivas nos contratos de serviços.
Existem no mercado inúmeras soluções que se adaptam a necessidades específicas e que servirão como uma luva para a sua necessidade. Entretanto, é preciso saber exatamente o que você tem, o que necessita e, então ir a campo garimpar a que melhor atenda às suas exigências, avaliando, estudando e se cercando de um bom SLA (acordo de nível de serviço).
Conteúdo Editorial – Informação Estratégica e especializada A Conteúdo Editoral é especializada na produção de conteúdos estratégicos e de apoio à decisão em Tecnologia da Informação e Comunicação. A editora possui duas áreas de negócios: Publicações Próprias e Serviços Editoriais. No segmento de publicações, produz as revistas Decision Report e Risk Report e suas respectivas newsletters. No de serviços, as revistas Partners (Oracle), SASCOM (SAS) e Informação (Grupo Ação). Mais sobre a Conteúdo Editorial em www.conteudoeditorial.com.br Fale conosco: (011) 5049.0202
36