Mobilidade ainda não combina com segurança

Houve um tempo — passado “remoto” da informática — em que notebook e smartphone (que era quase sinônimo de BlackBerry) era coisa cara, usada só por altos executivos, profissionais que realmente dependiam da mobilidade, e viciados em tecnologia. Hoje, existe uma profusão de notebooks, netbooks e smartphones para todos os gostos, necessidades e bolsos. Os notebooks vem inclusive tomando o lugar dos computadores desktop nas casas e nas empresas.

A principal inteligência de um celular “smart”, além das funções convencionais de um telefone celular, era lidar com correio eletrônico (e-mail). Atualmente, telefones celulares topo de linha são munidos de processadores e sistemas operacionais poderosos, cartões de memória com grande capacidade de armazenamento e conectividade total, se tornando verdadeiros computadores que se carrega no bolso.

O preço dos smartphones ainda é salgado em relação a um celular simples, mas tome-se o exemplo da Apple que induz uma fascinação no mercado fazendo um iPhone se tornar objeto de desejo de boa parte dos mortais, pelo simples fato de que “é muito legal”.

Caos da segurança

Com todo esse imenso poder dos dispositivos móveis, com custos cada vez menores e escala crescente em ritmo acelerado, vem o caos da segurança da informação.

Cada vez mais, altos executivos e funcionários em geral querem trabalhar remotamente e dispor de todos os recursos em qualquer lugar, pressionando as empresas a disponibilizar notebooks, redes sem fio (Wi-Fi, 3G etc.), acesso remoto e outros recursos de mobilidade corporativa. Querem usufruir dessa comodidade e poder, mas a TI tem que se virar para continuar garantindo segurança, controle e disponibilidade neste audacioso ambiente ilimitado e diverso.

Muitas empresas impõem restrições ao uso de notebooks e outros equipamentos pessoais e de prestadores de serviço dentro da rede corporativa, devido à dificuldade para as áreas gestoras de tecnologia da informação (TI) em garantir as políticas e mecanismos de segurança, o controle e os demais padrões corporativos nestes dispositivos que, além de móveis, são de propriedade e responsabilidade externas.

Quando se chega aos smartphones, então, a fronteira entre o particular e o corporativo fica ainda mais difusa e complexa. Se o CEO adquire um iPhone particular e quer acessar o e-mail corporativo através dele, até quando é razoável a TI dizer não?

Os riscos de vazamento de informação se multiplicam em escala exponencial diante de toda essa mobilidade. Se há redes sem fio ou acesso remoto, o controle para evitar acessos indevidos por invasores precisa ser redobrado.

Além disso, dispositivos móveis são mais suscetíveis a extravio, furto e roubo, e com eles se vai toda a informação contida, que tende a ser muito mais valiosa do que o próprio aparelho. Lembra-se do rebuliço gerado pelo furto de laptops da Petrobras com informações sigilosas em 2008?

Reflexões

Há como a TI garantir o uso de senhas, certificados digitais, biometria, criptografia, antivírus, firewall, VPN e outros recursos de segurança, controle e proteção da informação, de forma contínua, prática, efetiva e viável? E há como conscientizar e preparar os usuários para manterem sempre regras e procedimentos seguros neste mundo móvel? Em geral segurança anda na contramão da comodidade. E tem complexidade e custos, muitos custos.

Para os profissionais de gestão de tecnologia e de segurança das empresas continuarem sua reflexão — e preocupação, beirando o desespero — recomendo ler a série de matérias da IT Web no Especial smartphones, por Richard Dreger e Grant Moerschel, da InformationWeek EUA, 15/06/2010. As reportagens são oriundas do estudo sobre gerenciamento de dispositivos móveis e segurança da InformationWeek Analytics 2010.

Consulta × pesquisa: características, técnicas e ferramentas

Este artigo apresenta e diferencia os dois tipos básicos de busca e recuperação de informação por nome ou descrição, a consulta e a pesquisa, e aborda técnicas e ferramentas típicas para cada caso, tomando como base banco de dados Oracle e plataforma de programação Java.

Quando se disponibiliza buscas para uma quantidade grande e diversificada de usuários, é cada vez mais frequente utilizar um nome como parâmetro de identificação para a busca, ao invés de um código.

Códigos são mais eficientes como critério de busca, porém pressupõem um grupo especializado de usuários que tenha familiaridade com estes códigos. Nome ou descrição textual é mais natural e intuitivo, por isso mais adequado para um público amplo e diversificado.

Contudo, é importante diferenciar os dois tipos de busca possíveis: a consulta e a pesquisa.

Consulta

Na consulta, o pressuposto é que o usuário sabe especificamente o que procura, e deve fornecer uma identificação o mais completa e precisa possível. Nessa situação, o objetivo da busca é ser restritiva de forma a trazer, idealmente, apenas o registro específico desejado.

Quando se trata de uma pessoa, instituição ou outro item que possua nome (ou razão social etc.) que pode ser composto (várias palavras), a identificação precisa textual é o nome completo.

Para busca por um nome completo, as ferramentas de facilidade devem apenas evitar pequenos equívocos e diferenças irrelevantes. Falando especificamente em dados armazenados em tabelas de banco de dados, em geral usa-se uma coluna ou índice de busca em que o nome completo tenha um tratamento de homogenização, como:

  • eliminar acento, cedilha e outros modificadores, convertendo para a letra simples correspondente;
  • converter todas as letras para maiúscula;
  • substituir caracteres especiais (apóstrofo, aspas etc.) por espaço em branco;
  • suprimir espaços em branco no início e no fim e espaços duplicados entre palavras.

Dependendo da situação, outros critérios mais amplos e flexíveis de homogenização podem ser usados, como:

  • eliminação de conectivos ou termos secundários como “de”, “da”, “e”, “Ltda” etc.;
  • conversão de abreviaturas e numerais para extenso como “Cia” para “Companhia”, “Ind” para “Indústria”, “15” para “quinze” etc.

A regra geral, portanto, de uma consulta por nome completo é fazer uma comparação direta do tipo:
normalizar(nome_fornecido) =? tabela de normalizar(nome_armazenado)

Técnicas ou ferramentas típicas:

1) No banco de dados, é recomendável criar uma função (procedimento armazenado / stored procedure) para realizar as operações de normalização do nome, e disponibilizar para uso geral. Uma função SQL Oracle que pode ser usada para remover acentos é TRANSLATE(), como translate(nome, 'âàãáÁÂÀÃéêÉÊíÍóôõÓÔÕüúÜÚÇç', 'AAAAAAAAEEEEIIOOOOOOUUUUCC'). É importante lembrar que nomes estrangeiros podem ter acentuações não existentes na língua portuguesa, como “ñ”, “ä”, “è” e outros. Para maiúsculas usa-se UPPER(nome), e brancos antes e depois podem ser removidos com TRIM(nome) ou LTRIM(RTRIM(nome)), e no meio com repetidos REPLACE(nome, ‘__’, ‘_’) de 2 brancos por 1, ou no Oracle 10g usando REGEXP_REPLACE(nome, ‘[[:space:]][[:space:]]+’, ‘_’).

2) Igualmente, na linguagem de programação é recomendado criar um método para normalização e torná-lo disponível para as aplicações em uma biblioteca. Em Java e outras linguagens, expressões regulares são excelentes para substituição de acentos, caracteres especiais e espaços em branco repetidos. Veja este exemplo sobre Remover acentuação.

3) Criar uma coluna adicional na tabela, como o nome completo homogenizado, e indexar e utilizar essa coluna no momento da busca, gerando a coluna dinamicamente (via gatilho) na inserção ou atualização do nome.

4) Criar um índice por função (disponível no Oracle 9i em diante) aplicando no índice a função de normalização do nome. Isso dispensa a criação de uma coluna adicional como em (3), delegando isso para o índice.

Pesquisa

Diferente da consulta, o objetivo da pesquisa é maximizar a capacidade de busca. A busca não precisa ser exata (ou quase exata), mas sim permite imprecisões, erros ou falhas.

A pesquisa tipicamente traz uma lista ou conjunto de resultados possíveis, de acordo com os critérios de busca.

O usuário não necessariamente deve conhecer previamente o que especificamente procura, muitas vezes se quer descobrir informação (e não apenas recuperar informação, como no caso da consulta).

No caso de pesquisa por nome, o caso típico é o usuário não ser obrigado a conhecer o nome completo, podendo em geral omitir ou errar partes:

  • omitir uma ou mais palavras (de um nome composto);
  • errar a grafia correta/exata;
  • permitir também expressões com o uso de símbolos “curinga” ou de lacuna/substituição, que demarcam um ou mais caracteres indefinidos ou não conhecidos (? e * em expressões regulares, ou _ e % no Oracle).

Em alguns casos, pode-se ser ainda mais tolerante na combinação de palavras fornecidas, permitindo que a ordem exata de palavras seja alternada ou até retornar resultado em que parte das palavras ou expressões procuradas exista, mas outra parte não.

Técnicas e ferramentas típicas:

1) Combinar o uso das técnicas de homogenização usadas em consulta com o uso de máscaras como _ e % e pesquisa SQL com LIKE. Esta técnica, porém, é bastante ineficiente e limitada, por isso tipicamente inadequada para o uso mais geral.

2) Usar o recurso Oracle Text do banco de dados Oracle (9i em diante), que cria índices complexos e flexíveis de pesquisa ampla em texto (full text search), do tipo árvore de pesquisa, aceita operadores e expressões complexos de
pesquisa no estilo “Google”, e tem mais uma infinidade de recursos (veja referências a seguir).

3) Usar mecanismos de busca fonética e múltiplas combinações de palavras. Nesse sentido, um artigo muito interessante da revista Mundo Java de junho/2010 (edição 41) apresenta esse tipo de técnica e o demonstra utilizando uma biblioteca Java brasileira disponível como software livre (licença GPL), desenvolvida pelo INCOR (Instituto do Coração, SP) utilizando um algoritmo fornecido pela PROCEMPA (Companhia de Processamento de Dados do Município de Porto Alegre, RS) e aperfeiçoada pela empresa P2D.

Os fontes da reportagem estão disponíveis no site da revista em http://www.mundojava.com.br/NovoSite/codigos.shtml: BuscaFonetica.rar.
E a biblioteca GPL aperfeiçoada está disponível na P2D e a original no InCor.

A boa terceirização

Li um artigo do Correio Braziliense on-line, Contratar terceirizado já não é unanimidade — Empresas absorvem mão de obra avulsa e apontam uma nova tendência no mercado. Sindicatos dizem que o fenômeno ainda é discreto –, por Karla Mendes e Luciano Pires, publicado em 14/03/2010.

A matéria é interessante e foca recursos humanos terceirizados, mas remeteu minha atenção a um fenômeno recorrente.

De tempos em tempos terceirização — ou outsourcing para os adeptos à terminologia em inglês — é vista como a tábua da salvação ou panaceia para todos os males, alternando entre o oposto como buraco negro devorador ou bola de neve incontrolável.

Creio que terceirização, assim como quase tudo na vida, não deve ser colocada em termos extremos de tudo ou nada, paraíso ou inferno. A adequação e o sucesso  de terceirização dependem do que, porque e como terceirizar.

De acordo com os objetivos de uma organização, com seu nível de maturidade e com o cenário atual do mercado, a boa terceirização em geral deve:

  • Ser economicamente viável e vantajosa. O capital move a economia e o mercado. Dessa forma, o objetivo mais comum da terceirização costuma ser redução de custos. Em outros casos, pode representar um reequilíbrio orçamentário através da conversão de custos fixos e despesas com pessoal em custos com a contratação de serviços — nos órgãos públicos, por exemplo, a Lei de Responsabilidade Fiscal limita o percentual do orçamento destinado a pessoal. Mesmo que economia não seja o principal foco na opção por terceirização, deve-se avaliar a projeção de custos para garantir que antes de tudo ela seja economicamente viável e sustentável, com os custos sob controle ao longo do tempo.
  • Estar fora do core business do negócio. Definir e gerenciar o negócio principal de uma organização é algo que não faz sentido ser feito fora dela. Uma organização deve investir principalmente naquilo que é sua missão, aquilo que é seu maior domínio, que sabe e deve fazer melhor, que é seu diferencial competitivo. Atividades, recursos e necessidades comuns, secundários ou periféricos podem ser commodity disponível no mercado e providos na forma de serviço, e são estes os serviços passíveis de melhor terceirização.
  • Ser medida e remunerada por resultados e por qualidade. Nas contratações mensuradas em postos de trabalho (body shop) ou homem-hora, por exemplo, paga-se pelo meio, e não pelo fim. Faça analogia ao táxi cujo taxímetro cobra pela distância percorrida, não por chegar rapidamente ao destino, sendo este último o que realmente importa. Ao invés de terceirizar atendentes, terceirize atendimentos satisfatórios. Ao invés de terceirizar faxineiros, terceirize área limpa. Caso contrário, de nada adiantará uma aparente redução de custos se não forem obtidos resultados com qualidade; essa redução será mero corte, e não efetiva economia. O instrumento típico de medida e remuneração (e penalidades) priorizando resultados e qualidade é o ANS/SLA (acordo de nível de serviço / service level agreement).
  • Tirar proveito da economia de escala. Se sua organização deve prover um serviço de, digamos, manutenção de computadores para atender uma filial onde trabalham 20 funcionários em outra cidade, poderia se ver obrigada a ter custos fixos em manter toda uma estrutura de atendimento, logística e pessoal para este serviço na filial, e ficar em um dilema entre pagar por certa ociosidade ou correr o risco de não conseguir atender rapida e eficientemente. Um fornecedor que preste este serviço a vários clientes na cidade da filial tem seus custos fixos, incluindo infraestrutura e pessoal, compartilhados e rateados entre os clientes, dando-lhe condições de oferecer um serviço melhor a custos menores por cliente.
  • Permitir alocação de recursos sob demanda. A escala, além do rateio de custos fixos, também pode trazer outro benefício. O fornecedor pode manter uma margem de recursos de infraestrutura e de pessoal tal que possam ser rapidamente alocados e desalocados de forma dinâmica e sazonal entre seus clientes, na medida da necessidade momentânea de cada um. Os princípios de cloud computing (computação na nuvem) e virtualização dos provedores de data center representa bem este aspecto: estes fornecedores oferecem a possibilidade de se ampliar a capacidade de servidores de rede a um cliente de acordo com a demanda. Da mesma forma, um serviço de call center pode oferecer a alocação de mais atendentes em épocas de picos de atendimento, enquanto que para uma organização mantendo este serviço internamente implicaria na contratação ou demissão de pessoal nesses períodos, o que é bem mais complexo e às vezes inviável.
  • Trazer valor agregado e know how. Ao terceirizar determinado serviço, busca-se contratar um empresa especializada e altamente qualificada neste serviço e segmento de mercado, tal que o fornecedor tenha condições de agregar conhecimentos, capacidades, recursos, técnicas, inovações e melhoria contínua que dificilmente sua organização alcançaria prontamente ou seria capaz de manter tendo outro foco de negócios.

Por fim, é importante lembrar que terceirização é uma troca. Trocam-se os custos, complexidades, prós e contras da realização interna pelos de uma aquisição. Deixa-se de ter a execução interna do serviço, que passa a ser desempenhado pelo fornecedor. Por outro lado, o planejamento prévio à contratação se torna fator crítico de sucesso, e cria-se uma inevitável atribuição interna à organização: o gerenciamento da terceirização, envolvendo as responsabilidades pela contratação, fiscalização e acompanhamento regulares do serviço prestado e de sua efetividade.

Provedor banda larga – cuidado com promoções

A oferta e variedade no mercado de banda larga do Brasil tem crescido muito. Com isso, aumenta a concorrência, as promoções e ofertas de provedores.

Mas tenha muito cuidado com estas promoções. Os famosos micro preços anunciados “Banda larga por apenas R$ X*” têm sempre o famigerado asterisco no final, que aponta para as reais condições em letras miúdas.

Via de regra, as letras miúdas indicam que aquele preço é promocional apenas nos primeiros 3 — ou no máximo 6 — meses.

Por isso, recomendo fortemente que o usuário avalie o custo real considerando um prazo acumulado de no mínimo 36 meses (três anos).

Veja o que uma pequena comparação de provedores banda Oi Velox (ADSL) em Minas Gerais me revelou (sem o custo do meio de conexão, apenas o provedor de acesso):

Provedor Condições mensais ofertadas 24 m. R$ 36 m. R$ 48 m. R$
Terra 6 meses a R$ 5,90 + 18 meses a R$ 8,90; depois R$ 14,90 195,60 374,40 553,20
Uai 6 meses a R$ 3,90; depois R$ 14,90 291,60 470,40 649,20
Globo.com 3 meses a R$ 3,90; depois R$ 19,90 429,60 668,40 907,20
Oi Internet 3 meses a R$ 3,90; do 4º ao 24º mês R$ 8,50; depois R$ 29,90 190,20 549,00 907,80
UOL 3 meses a R$ 9,90; depois R$ 19,90 447,60 686,40 925,20

Valores encontrados nos URLs apontados na tabela acima, na data de hoje, para acesso Oi Velox residencial em Belo Horizonte, MG.

Análise: Antes de mais nada, não se deixe enganar pelo preço promocional dos primeiros meses. Em seguida, note que dadas as condições promocionais vigentes, até o final do segundo ano (24 meses), algumas promoções podem tornar transitoriamente o preço de alguns provedores mais vantajoso, mas no terceiro ano em diante é que a situação de longo prazo dos custos se define.

Conclusão: A menos que você pretenda usar um provedor por menos de dois anos, ou ficar todo ano horas no telefone renegociando com o provedor (com direito à tradicional ameaça do “quero cancelar!”), avalie os custos acumulados no horizonte de 36 meses ou mais. Acrescente à avaliação de custos outros benefícios oferecidos que podem ser realmente úteis a você, como conteúdo exclusivo, descontos em outros produtos e serviços etc. Estes benefícios adicionais eu não abordei aqui, pois são muito variados e sua relevância é subjetiva, depende de perfil, necessidades e interesses de cada um.

Este artigo não tem a pretensão de ser um comparativo de preços nem avaliação criteriosa. Apenas tomo uma pequena amostra para embasar o seguinte conselho: Não deixe de pesquisar suas opções!

PMBOK e Gerenciamento de Projetos – atualizado

Revisei meu artigo introdutório PMBOK e Gerenciamento de Projetos, que não sofria alteração desde a primeira revisão em 6 de maio de 2007.

Atualizei um diagrama, incluí a citação de outro (com o devido crédito ao seu autor Mauro Sotille) e fiz constar a nova Quarta Edição do Guia PMBOK. Detalhes a seguir.

Diagrama das Áreas de Conhecimento — A qualidade no centro

Quando concebi o diagrama que ilustra e interrelaciona as nove áreas de conhecimento abordadas pelo PMBOK, coloquei o Escopo no centro de um triângulo ladeado por Tempo, Custos e Qualidade. Minha crença até então era que o Escopo, ou seja, o que deve ser feito no projeto, era o elemento central que realmente interessava.

Hoje, transcorridos alguns anos e várias experiências em gerenciamento de projetos, vejo que o essencial é que todo projeto existe com um objetivo. Escopo é o que deve ser feito no projeto para atingir esse objetivo, mas não necessariamente se confunde com o objetivo em si.

Dependendo de restrições e condicionantes em fatores como disponibilidade de Prazo/Tempo, Orçamento/Custo, de Recursos Humanos e capacidade ou viabilidade de Aquisições, o Escopo pode ser afetado e negociado para se equilibrar com estes demais fatores, diminuindo ou mesmo aumentando, desde que o objetivo do projeto possa ser satisfatoriamente alcançado.

E aí ocorre a palavra chave: satisfatoriamente. A condição de satisfação do objetivo está essencialmente ligada à Qualidade.

A essência da qualidade pode ser entendida como o cumprimento satisfatório das necessidades e expectativas do patrocinador e demais partes interessadas, levando em consideração principalmente o balanceamento da chamada “restrição tripla” de escopo, tempo e custo do projeto.

Portanto, é a Qualidade que agora ocupa o centro da figura, pois ela em geral é decorrência do dimensionamento do triângulo Escopo – Tempo – Custos que a envolve, bem como dos insumos de RH e Aquisições, mantendo viáveis os níveis de risco e comunicações. Ou então há a situação recíproca: os requisitos de Qualidade necessários para a satisfação do objetivo do projeto determinam o dimensionamento dos outros fatores.

Os defensores da Qualidade Total e ISO 9000 também verão mais harmonia com “a qualidade no centro de tudo”.

Portanto, uma pequena mudança na figura, mas uma razoável evolução na compreensão e interpretação por trás dela.

Para saber mais:

Quarta Edição do Guia PMBOK

Em 31 de dezembro de 2008, o PMI lançou versões atualizadas de quatro de seus padrões globais, incluisive A Guide to the Project Management Body of Knowledge – PMBOK ® Guide — Fourth Edition. A versão em português brasileiro do Guia PMBOK 4ª Edição (Um Guia do Conhecimento em Gerenciamento de Projetos) foi publicada em outubro 2009 (o PDF já fora disponibilizado aos membros do PMI em junho).

Aproveito para resumir a seguir as principais diferenças da Terceira para a Quarta edições do PMBOK:

  1. Todos os nomes de processos agora estão no formato verbo-substantivo. Antes alguns nomes de processo seguiam este formato, como “Realizar o controle da qualidade”, enquanto outros usavam o substantivo da ação e foram padronizados, por exemplo: Planejamento da qualidade se tornou Planejar a qualidade, e assim por diante: “Controle” por “Controlar”, “Definição” por “Definir”, “Estimativa” por “Estimar” etc.
  2. O número de processos foi reduzido de 44 para 42. Dois processos foram excluídos, dois foram adicionados e seis foram reconfigurados em quatro processos na área de conhecimento em Gerenciamento das Aquisições do Projeto. A saber:
    • Eliminado 4.2 – Desenvolver a declaração do escopo preliminar do projeto, já que o termo de abertura do projeto contém vários dos objetivos preliminares e já que esses objetivos são elaborados na declaração de escopo.
    • O 4.7 – Encerrar o projeto foi renumerado e alterado para 4.6 – Encerrar o projeto ou fase.
    • 5.1 – Planejamento do escopo foi substituído por 5.1 – Coletar os requisitos.
    • 9.4 – Gerenciar a equipe do projeto mudou de um processo do grupo de Controle para o grupo de Execução.
    • Adicionado 10.1 – Identificar as partes interessadas.
    • 10.4 – Gerenciar as partes interessadas foi alterado para Gerenciar as expectativas das partes interessadas e passou do grupo de Controle para o de Execução.
    • 12.1 – Planejar compras e aquisições e 12.2 – Planejar contratações foram unificados como 12.1 – Planejar as aquisições.
    • 12.3 – Solicitar respostas de fornecedores e 12.4 – Selecionar fornecedores foram unificados como 12.2 – Realizar as aquisições.
  3. A fim de proporcionar maior clareza, uma distinção foi feita entre o plano de gerenciamento do projeto e os documentos do projeto usados para gerenciá-lo.
  4. Foi empregada uma abordagem padrão à discussão de fatores ambientais da empresa e de ativos de processos organizacionais.
  5. Foi empregada uma abordagem padrão à discussão de mudanças, ações preventivas e corretivas e reparos de defeitos.

Para saber mais:

Diagrama dos processos de gerenciamento de projeto

O artigo abordava resumidamente as nove áreas de conhecimento do PMBOK e os cinco grupos de processos do gerenciamento de projetos. Faltava porém fazer um breve visão geral dos processos em si, correlacionando-os com os grupos em que são organizados e com as respectivas áreas de conhecimento relativa a cada um.

Um diagrama do professor Mauro Afonso Sotille, da PM Tech Capacitação em Gerenciamento de Projetos, cumpre essa lacuna de forma simples, clara e brilhante. Assim, incluí a reprodução e referência de uma versão deste diagrama, já atualizada para a 4ª Edição do PMBOK. Muito obrigado e parabéns, caro Mauro!

Direitos autoriais e de uso

Contudo, termino este post com uma triste e indignada constatação de que os brasileiros na internet ainda não compreendem a seriedade e importância de respeito aos direitos autorais.

Há mais de 15 anos eu mantenho um web site onde escrevo e publico considerável volume de conteúdo, compartilhando conhecimento e informação com toda a internet.

Todo o material que crio em meu site e em meu blog está publicamente disponível, contudo, tanto no blog quando no rodapé de todos os artigos do site há uma simples e clara indicação dos direitos autorais e condições de uso:

© Márcio d’Ávila, mhavila.com.br, direitos reservados. O texto e código-fonte apresentados podem ser referenciados, distribuídos e utilizados, desde que expressamente citada esta fonte e o crédito do(s) autor(es).

A licença formal que escolhi para reger os direitos reservados é a simples e liberal Creative Commons BY-SA versão 2.5, cujos termos não são nada burocráticos, jurídicos ou incompreensíveis. Pelo contrário, são muito simples e claros em bom português:

Você tem a liberdade de:

  • Compartilhar — copiar, distribuir e transmitir a obra.
  • Remixar — criar obras derivadas.

Sob as seguintes condições:

  • Atribuição — Você deve creditar a obra da forma especificada pelo autor ou licenciante (mas não de maneira que sugira que estes concedem qualquer aval a você ou ao seu uso da obra).
  • Compartilhamento pela mesma licença — Se você alterar, transformar ou criar em cima desta obra, você poderá distribuir a obra resultante apenas sob a mesma licença, ou sob uma licença similar à presente.

E não é que ainda assim encontro na Internet reproduções de meus textos feitos com um descarado copiar-e-colar sem as duas coisas tão simples que peço: citar minha autoria e a referência à página original? Francamente!…

Só sobre este artigo, eis dois maus exemplos:

O Símbolo Perdido

A fórmula é a mesma de sempre.

Combine elementos instigantes de história, ciência, religião e misticismo para formar um grande segredo secular. Um crime envolve inesperadamente um acadêmico simbologista em uma trilha de mistérios que vão sendo desvendados em clima de aventura e suspense policial, tendo como cenário cidades famosas do Mundo, até um epílogo surpreendente.

A verossimilhança dos fatos e locais, muitos deles reais, descritos em riqueza de detalhes — às vezes com alguma sacação ou exagero — fazem a ficção parecer um documentário de aventura. A narrativa eletrizante, em capítulos que costumam intercalar cenas simultâneas e em geral terminam bem na hora de algum clímax, ajudam a prender ainda mais a atenção do leitor.

A descrição que acabei de fazer pode se aplicar perfeitamente a qualquer dos três romances do escritor americano Dan Brown (site oficial em inglês) que tem como personagem principal o professor Robert Langdon, simbologista da universidade de Harvard.

Seja pelo entretenimento travestido de cultura, seja modismo ou simplesmente um bom passatempo, os livros de Brown são best seller na certa, e quando transpostos para o cinema, se tornam block busters. Em bom português, sucesso garantido! E pelo menos na minha opinião, diversão garantida também.

Foi assim com Anjos e Demônios, com O Código da Vinci, e agora, com o recém lançado O Símbolo Perdido.

Um termômetro da popularidade dos romances de Brown é a quantidade de livros lançados sobre o tema — criticando, desmentindo, explicando, comentando, ou simplesmente pegando carona no sucesso. Para O Código da Vinci, surgiram “Quebrando o Código da Vinci”, “Decifrando o Código da Vinci”, “A Verdade e a Ficção em O Código da Vinci”, “Revelando o Código da Vinci”, “Rough Guide do Código da Vinci” e por aí vai.

O mesmo está ocorrendo com O Símbolo Perdido: “Os Segredos de O Símbolo Perdido”, “Filosofia de o Símbolo Perdido”, “A Verdade por Trás do Símbolo Perdido”, “Decifrando o Símbolo Perdido”… Tem até um romance chamado O Símbolo Secreto, de um tal de Patrick Ericson, que além da capa super parecida e, aparentemente, abordar o mesmo tema do livro quase homônimo, ainda tem o descaramento de estampar na capa a frase “Tão eletrizante quanto o melhor livro de Dan Brown”.

Espero que o roteiro de O Símbolo Perdido também vá parar em Hollywood e Tom Hanks aceite mais uma vez o papel do professor Robert Langdon!

O fim da Bookpool

Desde 1996, fui cliente fiel da Bookpool.com, a livraria virtual americana inaugurada em 1994, que vendia livros técnicos de informática muito baratos — raríssimamente Amazon ou Borders batiam algum preço. Não obstante, Bookpool sempre teve a mais eficiente, infalível e rápida entrega internacional que já vi, através da DHL, tal que os livros chegavam dos Estados Unidos à porta de minha casa religiosamente em apenas três dias úteis!

Enquanto até hoje alguns sites de compra ainda pecam em quesitos básicos, a compra através do site da Bookpool há mais de 10 anos já era intuitiva, precisa e segura — design limpo e organizado, informações e passos claros e objetivos, sempre apresentando detalhes e confirmações, uso de HTTPS, envio de e-mails de notificação, rastreamento de entrega internacional, histórico de pedidos, lista de compras futuras.

O controle de estoque de cada livro era preciso, com a disponibilidade já exibida mesmo antes da compra. Quando uma compra era fechada contendo pelo menos um livro fora de estoque, o pedido ficava em espera. Durante essa espera, podia-se editar o pedido já concluído, adicionando ou excluindo livros.

Longa história

A Bookpool praticava descontos sobre o preço de capa (aquele sugerido pela editora, que nas editoras dos EUA costuma ser impresso na capa junto ao ISBN do livro) em geral entre 30 e 40%. Mas todo mês havia uma (às vezes mais) editora da qual os livros estavam em oferta especial, com descontos que já vi chegar a 51%.

A O’Reilly é a editora americana especializada em tecnologia da qual mais comprei livros, através da Bookpool.com. Os livros da O’Reilly costumam ter um animal como tema da capa, o que os geeks apelidam carinhosamente de “coleção parmalat” (lembra daquela promoção de bichinhos de pelúcia que fez muito sucesso no Brasil?).

O frete inicial para entrega no Brasil era de aproximadamente 30 dólares, caro para comprar apenas um livro. Mas o frete a cada livro adicionado ao pedido era pequeno (dependia do peso), de forma que com um pedido em torno de 8 a 10 livros o frete médio rateado já costumava ficar perto de 7 dólares por livro.

Assim, bastava reunir um grupo de fiéis amigos nerds, ver quem queria quais livros e fazer um pedido “conjunto” para, em poucos dias, estarmos todos nos deliciando com algum livro técnico recém lançado nos Estados Unidos, a um custo em geral mais barato que livros no Brasil, sem esperar lançar tradução nem muito menos sofrer com traduções horrorosas e falhas. O sonho de qualquer nerd, hehe.

A Bookpool recomendava, para pedidos ao Brasil, que não fosse ultrapassado o valor total 500 dólares em um único pedido (incluindo frete), para evitar problema com a alfândega brasileira. Na época áurea em que o dólar estava pareado com o real, a turma de nerds era grande e as novidades de livros tech eram muitas, chegamos a pesquisar no site da Receita Federal e descobrir que a isenção de impostos na importação de livros era até o limite de 3000 dólares por remessa, e fizemos um pedido que ultrapassou mil dólares! O difícil era a logística de distribuir os livros e de cobrar de todos da turma.

O fim

Fazia mais de um ano que eu não comprava na Bookpool.com. E o último email de ofertas que eu havia recebido deles fora em janeiro de 2009. Eis que hoje fui acessar o site e… tive uma infeliz surpresa: A loja virtual Bookpool.com se foi!

Pesquisando na internet, descobri neste post de Marc Hughes que o site foi subitamente desativado em 23 de março de 2009. Pelo cache do Google vi que o dono da Bookpool Chris Perleberg pos o domínio bookpool.com à venda em novembro e acabou por leiloá-lo entre os dias 08, 09 e 10 de dezembro passado.

Não encontrei explicação para o súbito encerramento do site. Pelo sucesso que tinha entre os aficcionados de informática no mundo afora, talvez até um dos gigantes como Amazon ou Barnes&Noble se interessaria em comprar o negócio da Bookpool. Os donos devem ter lá suas razões, paciência.

Então, como mais um dos inúmeros fãs — muito além de simples clientes — órfãos que a Bookpool deixou mundo afora, expresso aqui meu sincero obrigado pelo tempo em que operou com eficiência e seriedade, e meu saudoso adeus, Bookpool.com!

Caminho tortuoso até o documento eletrônico

Um pouco de história

Creio que nada foi tão importante para a cultura, o avanço do conhecimento humano e a preservação da história da humanidade quanto a evolução da escrita. Das pedras da pré-história, ao papiro (Egito, terceiro milênio A.C.) e ao pergaminho, e daí chegando ao papel (China, século II).

Veio então a mecanização com a imprensa de Gutenberg (século XV) como veículo de massa, seguida da máquina de escrever (século XVIII) que tornou essa mecanização pessoal. No final dos anos 1940 a fotocópia (xerografia) popularizou a cópia fiel de documentos e o fax (facsimile) introduziu até a transferência remota de documentos através da rede telefônica.

E finalmente chegou a era dos computadores no século XX. No início, acreditava-se que o consumo de papel diminuiria bastante, pois ele teria ficado obsoleto. No entanto, na prática tem ocorrido o inverso: a cada ano, o consumo de papel tem sido maior. A máquina de escrever foi substituída pela dupla computador e impressora, e isso só aumentou a escala de uso do papel.

Junto com a era digital evoluiu toda a multimídia, inclusive áudio e vídeo. As fotos e imagens já se popularizaram fortemente no meio digital, e o filme de fotografia já está obsoleto. Mas o livro eletrônico e o papel digital ainda não são realidade para as massas.

A cultura do papel

Em tempos de sustentabilidade ecológica e social e da tecnologia como instrumento de aceleração do progresso, há forte motivação para redução do papel: A preservação das árvores (fonte da matéria prima celulose); a desburocratização e o imenso acúmulo de papel em instituições privadas e governamentais; a velocidade e a praticidade do meio digital como forma de armazenamento, recuperação e transmissão de informação.

No Brasil, já temos imposto de renda eletrônico via internet, o voto eletrônico, a nota fiscal eletrônica, o processo judicial eletrônico, o e-CPF e o e-CNPJ. Convenhamos, as iniciativas rumo à sociedade digital são muitas.

Mas cultura e os hábitos do papel, ampla e profundamente entranhados na humanidade há milhares de anos, não mudam fácil.

O correio eletrônico é a carta digital, mas ainda hoje muita gente imprime uma mensagem de e-mail ou outro texto digital apenas para ler, pois “é mais cômodo ler no papel do que na tela do computador”.

A tecnologia da assinatura digital, que permite dar validade oficial, legal e/ou jurídica a documentos eletrônicos já existe e está bem estabelecida desde o final da década de 70, mas ainda é tão desconhecida quanto cabeça de bacalhau para a grande maioria das pessoas. E mesmo a maioria dos que conhecem e usam ainda desconfiam.

Caminho tortuoso

Nas ferramentas digitais, há o scanner para digitalização. Em tese, o scanner é uma forma fácil de tornar digital qualquer legado existente em papel. Na prática, estabelecer um processo de trabalho e uma cultura adequados à lida com documentos digitais tem muito mais peso. O scanner pode se tornar um elemento a mais no emaranhado de ferramentas e recursos que, não raro, acabam por confundir as pessoas e/ou complicar o cenário de lidar com informação e documentos digitais.

Hoje, a maior parte dos documentos é confeccionado digitalmente em um editor de texto, no computador. Mas pode seguir caminhos estranhamente tortuosos a partir daí, como ser impresso, assinado no papel, transmitido por fax (e impresso de novo no destino), fotocopiado e, até, eventualmente, digitalizado para voltar ao computador, quem sabe daí ser transmitido por e-mail como uma imagem ou um arquivo PDF. Chega-se até ao luxo de recorrer ao OCR, a tecnologia de reconhecimento ótico de caracteres em documentos digitalizados como imagem, para converter em… texto como nasceu na origem, naquele editor de texto onde foi confeccionado, lembra?

Pesquisa recente da AIIM, associação internacional independente que promove o gerenciamento de documentos e de conteúdo, perto de 51% dos documentos em papel escaneados pelas organizações nascem digitais, tendo sido impressos diretamente de uma aplicação em computador. O estudo também apontou que 25% dos documentos digitalizados foram fotocopiados antes de ser enviados ao scanner, e que só 31% do total foram destruídos após digitalizados.

Além de comprovar que a situação tortuosa que descrevi, apesar de parecer ridícula, está bem perto do real, a pesquisa retrata objetivamente a relutância e dificuldade das organizações em lidar com o documento digital e em perder de vista (fisicamente falando) os seus documentos importantes.

Há ainda questões controversas sobre o documento digitalizado — a partir de original em papel — não ser legalmente presumido autêntico, tal que o papel possa ser eliminado. A Lei Federal nº 11.419/2006, que instituiu o processo judicial eletrônico no Brasil, teve que definir condições específicas em que os documentos produzidos eletronicamente serão considerados originais para todos os efeitos legais (Art. 11 e seus parágrafos), prevendo inclusive a destruição de citação, intimação ou notificação praticada em papel e digitalizada (Art. 9º § 2º).

Preservação e futuro

E como preservar o documento digital? O papel (e seus antecessores) tem permitido preservar o conhecimento e a história da humanidade por milhares de anos. Mas em um mundo da tecnologia em constante ebulição, ainda é um desafio para especialistas, governos e organizações garantir padrões, condições e recursos para a preservação e efetividade do conteúdo digital por centenas e milhares de anos.

Nesse cenário, meu sonho de consumo, como adepto fervoroso da tecnologia, é ver toda essa tecnologia, cultura e hábitos do conteúdo digital estabilizada, disseminada e aceita na cabeça e no dia-a-dia de todos, de forma simples, efetiva, duradoura e natural.

Ameaças e ataques cibernéticos no mundo real

O programa de TV 60 Minutes da rede americana CBS que foi ao ar em 8 de novembro passado apresentou a reportagem “Guerra Cibernética: Sabotando o Sistema”, em que sugere que apagões no Brasil podem ter sido causados por ataques hacker.

Tudo começou com a seguinte declaração recente do presidente dos EUA Barack Obama, que disse (tradução livre minha):

“Nós sabemos que intrusos cibernéticos sondaram nossa rede elétrica, e em outros países ataques cibernéticos fizeram cidades inteiras mergulhar na escuridão.”

Segundo a CBS, fontes militares dizem que ele se referia ao Brasil, aludindo que ataques de hackers teriam sido causa dos apagões ocorridos no país em 2005 e 2007. O jornalista afirma que os dados foram retirados de uma investigação específica sobre casos de ataques e crimes virtuais contra a infraestrutura de diversos governos. Os ataques seriam semelhantes aos sofridos nos Estados Unidos em 2009. (fonte: INFO Online).

A reportagem da CBS é cheia de sensacionalismo e tem pouco enfoque no embasamento e comprovação técnicos. Mas a notícia vem espalhando temores e sucitando teorias da conspiração, impulsionada pela esteira de sensibilização da população pelo blecaute que atingiu dez estados brasileiros — além do Paraguai — na noite de 10 de novembro.

Teoria da conspiração

Um exemplo do alarde provocado é o artigo A verdade sobre o apagão, por Maycon Maia Vitali, no Blog Hack’n Roll. Nele o rapaz de 23 anos, motivado pelo assunto, fez uma sondagem superficial na internet e encontrou uma vulnerabilidade de segurança em um sistema do Operador Nacional do Sistema Elétrico (ONS) do Brasil.

A falha no site apontada por Vitali foi corrigida na sexta-feira, três dias após o apagão que afetou 18 Estados brasileiros, conforme afirmou o diretor-geral do ONS, Hermes Chipp.

Como bem destaca o blogueiro Jomar Silva, não é porque um sistema de administração de contratos de transmissão da ONS está online que outros sistemas críticos de operação da rede elétrica estarão abertos na internet, nem tampouco supor que a falha simples encontrada pelo rapaz corrobore para comprovar que o sistema de energia elétrica do Brasil em si esteja comprometido e vulnerável a ataque de crackers.

A incursão de Vitali apenas reforça o que todo especialista em segurança da informação diz: não há segurança absoluta, não há sistema 100% seguro.

Autoridades brasileiras da ONS, Aneel (Agência Nacional de Energia Elétrica), Min. Minas e Energia e Presidência já afirmaram categoricamente que os sistemas críticos de operação e controle da rede de energia elétrica do Brasil não estão acessíveis através da Internet e descartam a possibilidade de sabotagem virtual.

Portanto, o post pode ser caracterizado como FUD — acrônimo do inglês Fear, Uncertainty and Doubt, para designar a tática de desinformação que visa desacreditar uma entidade ou fonte, incitando medo, incerteza e dúvida nas pessoas. Mas é um exemplo de como o efeito de histeria se espalha.

Relatórios de tendências

Bem mais concreto é o recente relatório de Tendências na Segurança de Aplicações Web para os dois primeiros trimestres de 2009, divulgado pela empresa Cenzic, especializada em segurança: Web Application Security Trends Report, Q1-Q2 2009, divulgado em 2009-11-09.

Publicado periodicamente desde 2007, o relatório revela que mais de 3,1 mil vulnerabilidades foram identificadas no primeiro semestre deste ano, índice 10% superior ao verificado no segundo semestre de 2008. Desse total, 78% são em aplicativos web. 87% das aplicações analisadas tinham falhas sérias que poderiam expor informações críticas ou confidenciais dos usuários durante transações (fonte: IT Web).

De acordo com a Cenzic, as vulnerabilidades SQL Injection — como a identificada por Maycon Maia Vitali na aplicação web do ONS — e Cross Site Scripting tiveram maior participação nos ataques pela web, com 25% e 17%, respectivamente.

Outro documento, o “Top Cyber Security Risks”, do SANS Institute, publicado em setembro, revela que mais de 60% dos ataques na internet focaram aplicativos web. Isto porque nos últimos anos a quantidade de vulnerabilidades identificadas em aplicações tem sido muito superior àquelas em sistemas operacionais e redes.

Segurança

No mínimo, todo esse assunto é um alerta sobre como as ameças em um mundo tecnológico e conectado vão saindo da ficção científica futurística e galgando a realidade dos dias de hoje.

Mas se há ameaças mil à solta, há também informação, produtos e serviços de sobra para as instituições, governos, empresas e pessoas poderem se instruir, preparar, prevenir, mitigar e reagir às possibilidades e incidências de vulnerabilidades e falhas de segurança em sistemas.

Para se ter uma simples ideia, já existe, há um bom tempo:

O mal existe, mas o bem também. Para dissipar presságios do caos, basta que não apenas os crackers (hackers do mal), mas principalmente as instituições e pessoas de bem se preocupem, envolvam, invistam e ajam seriamente em segurança.

Foco na solução

Hoje assisti uma palestra da Rita Mulcahy no 4º Congresso Brasileiro de Gerenciamento de Projetos, que está ocorrendo em Belo Horizonte, MG, promovido pelos Capítulos Brasileiros do PMI, sob a coordenação do Capítulo Minas Gerais (PMI-MG) e do PMI – Project Management Institute.

Rita é autora do mais conceituado treinamento e material didático preparatório para a certificação PMP (no Brasil, sua empresa RMC tem a Project Lab como representante).

Mas a palestra, super divertida e inusitada, não foi nada sobre certificação ou os assuntos usuais das disciplinas do gerenciamento de projetos.

Fazendo um gancho com sua nova marca de material Tricks of the Trade, Rita falou sobre como o gerente de projetos deve lidar com problemas.

Algumas coisas que ela falou vem de encontro a algo que eu gostaria de abordar há algum tempo aqui no blog.

Rita Mulcahy ressaltou que gasta-se muito tempo e energia para lamentar um problema. Também fez a sua definição sobre o que ela entende ser problema. Em uma tradução livre, é mais ou menos isso: “Problema é a diferença negativa entre o que se deseja/espera o que se (ob)tem.” Rita afirma que o mais importante não é o problema em si, mas como você o percebe e aborda.

Mais do que lidar com problemas, eu vou além. Uma capacidade valiosa do profissional de hoje é ter o foco na solução.

Como disse a Rita, lamentar problemas consome muito tempo e energia preciosos. E de forma infrutífera. E acrescento, com pesar: Em qualquer situação na vida pessoal ou no trabalho, em geral é fácil encontrar pessoas que apontam, criticam e amarguram problemas à exaustão. Algumas chegam a ter o senso aguçado de antever e detalhar as mais remotas consequências prováveis de um problema, falha, risco, receio ou até mera especulação.

O que estas pessoas não percebem é que focar com tanta intensidade as energias no problema — talvez momentaneamente tentando servir como desabafo? — não ajuda em nada a resolvê-lo. O foco no problema é uma atitude profundamente negativa. Só aumenta o estresse.

Realmente útil é a qualidade magistral de ter o foco na solução. Para mim, focar na solução é, tão logo se identifique um problema — e preferencialmente também sua(s) causa(s) — imediatamente concentrar toda a energia, tempo e intelecto em buscar uma solução para esse problema! É ser positivo, de forma prática e pragmática.

Parece simples, mas minha experiência pessoal mostra que infelizmente ainda são raras as pessoas que “treinam e calibram” sua mente para manter o foco em soluções.

Seja em uma reunião de trabalho ou familiar, e até em volta de uma mesa de bar, a maioria das pessoas tende a uma postura crítica e negativa ao discutir qualquer assunto, com foco no problema. E custa haver um iluminado que seja para engrenar qualquer ideia ou sugestão rumo à solução.

Rita Mulcahy também dá dicas que ajudam a orientar o foco na solução: Liste os problemas, para trazer clareza e objetividade ao cérebro. Liste também as coisas que estão indo bem, para retomar serenidade e ânimo. E trate de começar a buscar soluções!