Caminho tortuoso até o documento eletrônico

Um pouco de história

Creio que nada foi tão importante para a cultura, o avanço do conhecimento humano e a preservação da história da humanidade quanto a evolução da escrita. Das pedras da pré-história, ao papiro (Egito, terceiro milênio A.C.) e ao pergaminho, e daí chegando ao papel (China, século II).

Veio então a mecanização com a imprensa de Gutenberg (século XV) como veículo de massa, seguida da máquina de escrever (século XVIII) que tornou essa mecanização pessoal. No final dos anos 1940 a fotocópia (xerografia) popularizou a cópia fiel de documentos e o fax (facsimile) introduziu até a transferência remota de documentos através da rede telefônica.

E finalmente chegou a era dos computadores no século XX. No início, acreditava-se que o consumo de papel diminuiria bastante, pois ele teria ficado obsoleto. No entanto, na prática tem ocorrido o inverso: a cada ano, o consumo de papel tem sido maior. A máquina de escrever foi substituída pela dupla computador e impressora, e isso só aumentou a escala de uso do papel.

Junto com a era digital evoluiu toda a multimídia, inclusive áudio e vídeo. As fotos e imagens já se popularizaram fortemente no meio digital, e o filme de fotografia já está obsoleto. Mas o livro eletrônico e o papel digital ainda não são realidade para as massas.

A cultura do papel

Em tempos de sustentabilidade ecológica e social e da tecnologia como instrumento de aceleração do progresso, há forte motivação para redução do papel: A preservação das árvores (fonte da matéria prima celulose); a desburocratização e o imenso acúmulo de papel em instituições privadas e governamentais; a velocidade e a praticidade do meio digital como forma de armazenamento, recuperação e transmissão de informação.

No Brasil, já temos imposto de renda eletrônico via internet, o voto eletrônico, a nota fiscal eletrônica, o processo judicial eletrônico, o e-CPF e o e-CNPJ. Convenhamos, as iniciativas rumo à sociedade digital são muitas.

Mas cultura e os hábitos do papel, ampla e profundamente entranhados na humanidade há milhares de anos, não mudam fácil.

O correio eletrônico é a carta digital, mas ainda hoje muita gente imprime uma mensagem de e-mail ou outro texto digital apenas para ler, pois “é mais cômodo ler no papel do que na tela do computador”.

A tecnologia da assinatura digital, que permite dar validade oficial, legal e/ou jurídica a documentos eletrônicos já existe e está bem estabelecida desde o final da década de 70, mas ainda é tão desconhecida quanto cabeça de bacalhau para a grande maioria das pessoas. E mesmo a maioria dos que conhecem e usam ainda desconfiam.

Caminho tortuoso

Nas ferramentas digitais, há o scanner para digitalização. Em tese, o scanner é uma forma fácil de tornar digital qualquer legado existente em papel. Na prática, estabelecer um processo de trabalho e uma cultura adequados à lida com documentos digitais tem muito mais peso. O scanner pode se tornar um elemento a mais no emaranhado de ferramentas e recursos que, não raro, acabam por confundir as pessoas e/ou complicar o cenário de lidar com informação e documentos digitais.

Hoje, a maior parte dos documentos é confeccionado digitalmente em um editor de texto, no computador. Mas pode seguir caminhos estranhamente tortuosos a partir daí, como ser impresso, assinado no papel, transmitido por fax (e impresso de novo no destino), fotocopiado e, até, eventualmente, digitalizado para voltar ao computador, quem sabe daí ser transmitido por e-mail como uma imagem ou um arquivo PDF. Chega-se até ao luxo de recorrer ao OCR, a tecnologia de reconhecimento ótico de caracteres em documentos digitalizados como imagem, para converter em… texto como nasceu na origem, naquele editor de texto onde foi confeccionado, lembra?

Pesquisa recente da AIIM, associação internacional independente que promove o gerenciamento de documentos e de conteúdo, perto de 51% dos documentos em papel escaneados pelas organizações nascem digitais, tendo sido impressos diretamente de uma aplicação em computador. O estudo também apontou que 25% dos documentos digitalizados foram fotocopiados antes de ser enviados ao scanner, e que só 31% do total foram destruídos após digitalizados.

Além de comprovar que a situação tortuosa que descrevi, apesar de parecer ridícula, está bem perto do real, a pesquisa retrata objetivamente a relutância e dificuldade das organizações em lidar com o documento digital e em perder de vista (fisicamente falando) os seus documentos importantes.

Há ainda questões controversas sobre o documento digitalizado — a partir de original em papel — não ser legalmente presumido autêntico, tal que o papel possa ser eliminado. A Lei Federal nº 11.419/2006, que instituiu o processo judicial eletrônico no Brasil, teve que definir condições específicas em que os documentos produzidos eletronicamente serão considerados originais para todos os efeitos legais (Art. 11 e seus parágrafos), prevendo inclusive a destruição de citação, intimação ou notificação praticada em papel e digitalizada (Art. 9º § 2º).

Preservação e futuro

E como preservar o documento digital? O papel (e seus antecessores) tem permitido preservar o conhecimento e a história da humanidade por milhares de anos. Mas em um mundo da tecnologia em constante ebulição, ainda é um desafio para especialistas, governos e organizações garantir padrões, condições e recursos para a preservação e efetividade do conteúdo digital por centenas e milhares de anos.

Nesse cenário, meu sonho de consumo, como adepto fervoroso da tecnologia, é ver toda essa tecnologia, cultura e hábitos do conteúdo digital estabilizada, disseminada e aceita na cabeça e no dia-a-dia de todos, de forma simples, efetiva, duradoura e natural.

Acer supera Dell no mercado mundial de PCs

Segundo levantamento da empresa iSuppli sobre o mercado mundial de fabricantes de PCs no terceiro trimestre de 2009, a Acer ultrapassou a Dell e ocupa a segunda posição no ranking, em número de unidades embarcadas (incluindo desktops, laptops e netbooks).

As asiáticas galgam forte presença no mercado global, com preços competitivos e rapidez nas inovações. A taiwanesa Acer registrou crescimento de 16,6%, enquanto a chinesa Lenovo (que adquiriu a Divisão de Computadores Pessoais da IBM em 2005) cresceu 17,2% no período, o maior crescimento entre os cinco principais fornecedores de PCs. Em 2003, Acer e Lenovo ocupavam a sexta e oitava posições, respectivamente.

A análise da iSuppli é similar ao que reportam outros institutos como Gartner e Forrester. HP se mantém no topo por treze trimestres seguidos, e Dell foi a única das cinco maiores que apresentou queda em comparação ao período anterior.

O ranking da iSuppli para Q3 2009 é o seguinte (percentual de market share em parenteses, do total estimado de 79,9 milhões de PCs distribuídos globalmente):

  1. HP (19,9%)
  2. Acer (13,4%)
  3. Dell (12,9%)
  4. Lenovo (8,6%)
  5. Toshiba (5,0%)

Note que estas cinco maiores detêm sozinhas quase 60% de todo o mercado global. No Brasil, Itautec e Positivo são os dois principais fornecedores nacionais que competem com os gigantes mundiais no mercado local.

Para saber mais:

Gartner – TI mais eficiente em 2010

No relatório Gartner Perspective: IT Spending 2010 (PDF, em inglês, disponível mediante registro gratuito), o Gartner apresenta os resultados dos seus forecasts sobre gastos com TI para 2010 em todo mundo, incluindo visões segmentadas por área (hardware, software, telecomunicações e serviços), região do mundo, mercado vertical (financeiro, setor público, manufatura, comércio, serviços…).

Depois de um 2009 que sofreu globalmente aperto e encolhimento com a crise desencadeada com as quebras da Bolsa de NY no final de 2008, as perspectivas para 2010 são de retomada de crescimento do mercado e dos investimentos em TI no mundo, com especial fôlego na América Latina, certamente encabeçado pelo próspero momento do Brasil. A previsão de crescimento nos gastos de produtos e serviços de TI para usuários finais em 2010 é de 8,8% para a América Latina, ante à média total de 3,3% no mundo.

Mas o que mais me chamou a atenção na seção conclusiva CIO Agenda 2010, por Mark McDonald, Vice-Presidente do Grupo e Chefe da Pesquisa do Gartner Executive Programs, foi o ranking das Top 10 Prioridades em Negócios. Veja as três primeiras:

  1. Melhoria de processos de negócio
  2. Redução dos custos
  3. Melhoria de efetividade na força de trabalho

Ou seja, a prioridade da TI é aumentar a eficiência. Fazer mais e melhor com menos. Creio que foi essa a grande marca e lição que a crise deixou.

Por falar em momento próspero do Brasil, eu gostaria de citar um fato relevante. A mais influente revista de negócios do mundo, The Economist, e a revista semanal de maior circulação no Brasil, Veja, ambas tiveram recentes reportagens de capa (note a similaridade das ilustrações) sobre o momento favorável do Brasil. É algo notável e a hora é essa!

[photopress:TheEconomist_2009_11_Brazil_takes_off.jpg,thumb,alignleft_caixa] [photopress:Veja_2009_11_Carreira.jpg,thumb,alignright_caixa] The Economist – O Brasil decola, 2009-11-12, reportagem especial (em inglês) de 14 páginas sobre a história de maior sucesso na América Latina.

 
Veja – Carreira: Agora é com você! – O Brasil decolou e as oportunidades estão aí, 2009-11-11, reportagem especial Vocações de 41 páginas.

Compras bilionárias

No dia 11, a HP comprou a fabricante de produtos de conectividade 3Com por US$ 2,7 bilhões.

A aquisição dá força à HP na estratégia de oferta de uma nova geração de soluções convergentes para data center, integrando servidores, storage, networking e serviços. Com isso, a HP espera ajudar seus clientes a simplificar a sua infraestrutura de redes, ao mesmo tempo que aumenta sua abrangência no mercado de networking para fazer frente à também americana Cisco.

Enquanto isso a Cisco hoje (16) elevou para US$ 3,4 bilhões a oferta de compra à norueguesa Tandberg, fornecedora de sistemas de telepresença e videoconferência. Na primeira oferta, de US$ 3 bilhões em 1º/out, os acionistas que representam cerca de 30% do capital acionário da TandBerg haviam pré-aprovado o negócio, mas os minoritários recusaram. Em comunicado em seu site, a Cisco afirmou que também irá aumentar de 1,75% para 3% a taxa de juros que pagará pela transação, mas adiantou que esta é a oferta final. O prazo para Tandberg responder se aceita ou não a proposta foi estendido para 1º/dez. Caso não seja aprovada, a Cisco informou que retirará a oferta.

Fontes: HP compra 3Com por US$ 2,7 bilhões e faz frente à Cisco, por Reseller Web, 2009-11-11, em IT Web. Cisco eleva oferta à Tandberg para US$ 3,4 bilhões; HP trará 3Com de volta ao mercado de data center, diz Gartner, ambas da Redação TI Inside Online, 2009-11-16.

No Brasil

E no dia 13, a francesa Vivendi assumiu o controle da operadora de telefonia brasileira GVT, pagando cerca de R$56 por ação. O total de papéis comprados corresponde a 57,5% de ações com direito a voto nas assembleias e 53,7% do capital da companhia. Calcula-se que o total pago gire em torno de R$ 3,5 bilhões.

Para entrar no Brasil, a Vivendi teve que vencer a disputa pela compra da GVT com a Telefônica, que já havia oferecido R$50,50 por ação. O negócio deve aumentar a competição no setor de telecomunicações. A GVT já anunciara planos de entrar em São Paulo, e a meta de ingressar neste mercado a partir de 2010 deve ser mantida após a entrada da Vivendi.

Fonte: Vivendi dribla a Telefônica e compra a GVT, em IT Web, 2009-11-13.

Ameaças e ataques cibernéticos no mundo real

O programa de TV 60 Minutes da rede americana CBS que foi ao ar em 8 de novembro passado apresentou a reportagem “Guerra Cibernética: Sabotando o Sistema”, em que sugere que apagões no Brasil podem ter sido causados por ataques hacker.

Tudo começou com a seguinte declaração recente do presidente dos EUA Barack Obama, que disse (tradução livre minha):

“Nós sabemos que intrusos cibernéticos sondaram nossa rede elétrica, e em outros países ataques cibernéticos fizeram cidades inteiras mergulhar na escuridão.”

Segundo a CBS, fontes militares dizem que ele se referia ao Brasil, aludindo que ataques de hackers teriam sido causa dos apagões ocorridos no país em 2005 e 2007. O jornalista afirma que os dados foram retirados de uma investigação específica sobre casos de ataques e crimes virtuais contra a infraestrutura de diversos governos. Os ataques seriam semelhantes aos sofridos nos Estados Unidos em 2009. (fonte: INFO Online).

A reportagem da CBS é cheia de sensacionalismo e tem pouco enfoque no embasamento e comprovação técnicos. Mas a notícia vem espalhando temores e sucitando teorias da conspiração, impulsionada pela esteira de sensibilização da população pelo blecaute que atingiu dez estados brasileiros — além do Paraguai — na noite de 10 de novembro.

Teoria da conspiração

Um exemplo do alarde provocado é o artigo A verdade sobre o apagão, por Maycon Maia Vitali, no Blog Hack’n Roll. Nele o rapaz de 23 anos, motivado pelo assunto, fez uma sondagem superficial na internet e encontrou uma vulnerabilidade de segurança em um sistema do Operador Nacional do Sistema Elétrico (ONS) do Brasil.

A falha no site apontada por Vitali foi corrigida na sexta-feira, três dias após o apagão que afetou 18 Estados brasileiros, conforme afirmou o diretor-geral do ONS, Hermes Chipp.

Como bem destaca o blogueiro Jomar Silva, não é porque um sistema de administração de contratos de transmissão da ONS está online que outros sistemas críticos de operação da rede elétrica estarão abertos na internet, nem tampouco supor que a falha simples encontrada pelo rapaz corrobore para comprovar que o sistema de energia elétrica do Brasil em si esteja comprometido e vulnerável a ataque de crackers.

A incursão de Vitali apenas reforça o que todo especialista em segurança da informação diz: não há segurança absoluta, não há sistema 100% seguro.

Autoridades brasileiras da ONS, Aneel (Agência Nacional de Energia Elétrica), Min. Minas e Energia e Presidência já afirmaram categoricamente que os sistemas críticos de operação e controle da rede de energia elétrica do Brasil não estão acessíveis através da Internet e descartam a possibilidade de sabotagem virtual.

Portanto, o post pode ser caracterizado como FUD — acrônimo do inglês Fear, Uncertainty and Doubt, para designar a tática de desinformação que visa desacreditar uma entidade ou fonte, incitando medo, incerteza e dúvida nas pessoas. Mas é um exemplo de como o efeito de histeria se espalha.

Relatórios de tendências

Bem mais concreto é o recente relatório de Tendências na Segurança de Aplicações Web para os dois primeiros trimestres de 2009, divulgado pela empresa Cenzic, especializada em segurança: Web Application Security Trends Report, Q1-Q2 2009, divulgado em 2009-11-09.

Publicado periodicamente desde 2007, o relatório revela que mais de 3,1 mil vulnerabilidades foram identificadas no primeiro semestre deste ano, índice 10% superior ao verificado no segundo semestre de 2008. Desse total, 78% são em aplicativos web. 87% das aplicações analisadas tinham falhas sérias que poderiam expor informações críticas ou confidenciais dos usuários durante transações (fonte: IT Web).

De acordo com a Cenzic, as vulnerabilidades SQL Injection — como a identificada por Maycon Maia Vitali na aplicação web do ONS — e Cross Site Scripting tiveram maior participação nos ataques pela web, com 25% e 17%, respectivamente.

Outro documento, o “Top Cyber Security Risks”, do SANS Institute, publicado em setembro, revela que mais de 60% dos ataques na internet focaram aplicativos web. Isto porque nos últimos anos a quantidade de vulnerabilidades identificadas em aplicações tem sido muito superior àquelas em sistemas operacionais e redes.

Segurança

No mínimo, todo esse assunto é um alerta sobre como as ameças em um mundo tecnológico e conectado vão saindo da ficção científica futurística e galgando a realidade dos dias de hoje.

Mas se há ameaças mil à solta, há também informação, produtos e serviços de sobra para as instituições, governos, empresas e pessoas poderem se instruir, preparar, prevenir, mitigar e reagir às possibilidades e incidências de vulnerabilidades e falhas de segurança em sistemas.

Para se ter uma simples ideia, já existe, há um bom tempo:

O mal existe, mas o bem também. Para dissipar presságios do caos, basta que não apenas os crackers (hackers do mal), mas principalmente as instituições e pessoas de bem se preocupem, envolvam, invistam e ajam seriamente em segurança.

Suporte ao acordo ortográfico nos programas

Com o início da vigência do Acordo Ortográfico da Língua Portuguesa no Brasil em 2009, uma necessidade decorrente dos usuários de computador é o suporte a esta reforma ortográfica nos programas.

O mais importante são os revisores ortográficos e gramaticais dos editores de texto, bem como dos programas onde há campos de entrada/digitação de texto, como os clientes de e-mail e os campos de texto dos navegadores/browsers internet.

Veja a seguir quais já oferecem suporte ao Acordo Ortográfico da Língua Portuguesa.

LibreOffice/BrOffice/OpenOffice e Mozilla

O VERO – Verificador Ortográfico do projeto BrOffice.org inclui suporte ao acordo ortográfico, corretores ortográfico e gramatical e divisão de sílabas, desde a versão 2.0 já disponível em 1º de janeiro de 2009, graças ao trabalho do sergipano Raimundo Santos Moura.

Está disponível para uso com os programas do pacote de escritório LibreOffice/BrOffice.org (editor de texto, planilha, apresentações, desenho) versões 2.x em diante.

Disponível também com os programas de internet da fundação Mozilla — o navegador Firefox, o cliente de e-mail Thunderbird, a suíte Seamonkey — na forma de extensão como dicionário pt_BR para o corretor ortográfico nativo.

Microsoft Office

O Microsoft Office 2010 já tem suporte nativo ao Acordo Ortográfico.

A Microsoft liberou em 14/10/2009 o pacote de atualização KB972854 de 30/09/2009 para o Microsoft Office 2007, provendo suporte ao Acordo Ortográfico.

A página sobre a Atualização para o Verificador Ortográfico, Dicionário de Sinônimos e Verificador Gramatical do Microsoft Office 2007 também apresenta informações adicionais sobre a reforma ortográfica e indica Artigos sobre a Reforma Ortográfica da Língua Portuguesa.

Como o Microsoft Office 2003 já encerrou seu ciclo de vida principal de suporteem 14/04/2009, e entrou em suporte estendido apenas para atualizações de segurança até 2014 — a Microsoft deixou o suporte a essa versão de fora da atualização.

No Office 2007 com a atualização, observei que permanecia a autocorreção ao digitar de “linguiça” para “lingüiça” (com trema). Foi preciso eu remover manualmente: Opções do Word > Revisão de Texto > Opções de AutoCorreção > Substituir texto ao digitar > selecionar a substituição de linguiça > escolher o botão Excluir.

Para saber mais:

Contratações de TI na Administração Pública

Muitos brincam que a complexidade da Lei Federal nº 8.666/1993 (lei das licitações e contratos da Administração Pública) não termina em “666” por acaso. Ela é complexa e, em vários aspectos, complica ou limita as ações de aquisição da Administração Pública.

A coisa se torna ainda mais confusa devido à enorme quantidade de legislação complementar, bem como atos normativos, e orientações, decisões e jurisprudência aplicáveis dos Tribunais de Contas (da União — TCU — e dos estados) e outros órgãos dos Poderes Judiciário, Legislativo e Executivo.

Quando o assunto é aquisição de serviços em tecnologia da informação (TI), então, onde o objeto das contratações frequentemente é complexo e detalhado, o cenário fica ainda mais desafiador, para não dizer desanimador.

Mas desde 2008 as coisas vem sendo organizadas, melhoradas, evoluídas e facilitadas. Uma série de estudos e acórdãos do TCU — através de sua Secretaria de Fiscalização de Tecnologia da Informação (SEFTI) — e as instruções normativas decorrentes da Secretaria de Logística e Tecnologia da Informação (SLTI) do Ministério do Planejamento tem trazido definições claras, precisas e objetivas para orientar as contratações de TI.

A maior parte destes atos se aplica à Administração Pública Federal, mas pode ser considerada fonte de melhores práticas e adotada integralmente também pelas outras esferas governamentais, Estadual e Municipal.

Horário de Verão no Brasil

À zero hora deste domingo dia 18 de outubro começa o Horário de Verão 2009/2010 no Brasil.

O Horário de Verão (em inglês Daylight Saving Time – DST) é um recurso utilizado por dezenas de países, consistindo em alterar os relógios (em geral adiantando em 1 hora) durante o período do verão, para aproveitar por mais tempo a luz natural do sol e assim economizar energia.

Histórico

O histórico do horário de verão remete a origem da ideia a Benjamin Franklin, que em 1784 na França publicou uma carta anônima em um jornal sugerindo aos Parisienses que acordassem mais cedo para aproveitar a luz do sol e economizar energia de velas.

O moderno horário de verão com período definido é atribuído por várias fontes a William Willett, construtor Britânico e membro da Sociedade Astronômica Real da Inglaterra, que em 1907 deu início a uma campanha para adoção do horário de verão naquele pais. Mas a Wikipédia em inglês contesta essa informação e aponta o entomologista e astrônomo George Vernon Hudson, da Nova Zelândia, como o primeiro a propor o horário de verão moderno em um artigo de 1895 apresentado à Wellington Philosophical Society.

O horário de verão foi efetivamente introduzido pela primeira vez em 30 de abril 1916 na Alemanha, na Áustria-Hungria e, no mesmo ano, na Irlanda, como uma medida de economia após a Primeira Guerra Mundial, seguido depois por diversos países.

No Brasil

No Brasil, o horário de verão foi adotado pela primeira vez em 1931 em todo o território nacional, visando também à economia de energia elétrica, instituído pelo Decreto nº 20.466 de 01/10/1931. Após dois anos de experiência, a medida gerou oposição e foi revogada em 1933.

Em períodos subsequentes a hora ou horário de verão foi instituída e revogada — de 1949 a 1953 após a Segunda Guerra, de 1963 a 1968, motivado pelo efeito negativo das estiagens e a economia de energia hidroelétrica e suspenso durante a Ditadura Militar.

A hora de verão no Brasil voltou na presidência de José Sarney em 1985, com períodos definidos por Decreto a cada ano, inicialmente em todo o território nacional, mas depois passou a valer apenas em alguns estados (quais variando em sucessivos decretos).

Diferente de uma regra fixa de vigência do horário de verão modernamente adotada por diversos países, já que o ciclo solar é igualmente fixo e bem definido, no Brasil cada decreto desde 1985 arbitrava as datas anuais de início e fim, e pior, em geral com pouquíssima antecedência.

Essa variação constante e de “última hora” de datas e estados no Brasil causou muitos transtornos. A situação piora de forma crescente na era dos milhões e bilhões equipamentos eletrônicos e computadores com relógio interno e controle de horário, e ainda mais agravado no mundo da internet e das redes globais interconectando tudo! Veja por exemplo o artigo Horário de verão e a segurança dos computadores.

Finalmente o Decreto nº 6.558, DE 8 de setembro de 2008, no governo Lula, instituiu uma regra permanente para a Hora de Verão em parte do território nacional, mas como infelizmente muita coisa no Brasil — ainda mais na política — sempre tem algo para complicar, o decreto tem dois problemas:

  • Enquanto nos Estados Unidos as (raras) alterações de regra no horário de verão foram sempre publicadas com mais de um ano de antecedência, o Decreto de 2008 mais uma vez “sagrou” a falta de planejamento brasileira, sendo publicado pouco mais de um mês antes do início da vigência do horário de verão naquele ano.
  • No artigo primeiro que cria a regra fixa de datas de início e fim, o Decreto tem um parágrafo que cria uma exceção incrível: “No ano em que houver coincidência entre o domingo previsto para o término da hora de verão e o domingo de carnaval, o encerramento da hora de verão dar-se-á no domingo seguinte.” Depois tem gente que reclama quando dizem que no Brasil tudo acaba em samba (ou em pizza)…

Para saber mais:

Computadores com Windows: Um dos grandes impactos do horário de verão do Brasil é no ajuste dos milhões de computadores pessoais com o sistema pessoal Windows. Veja as seguintes informações e orientações a respeito:

Calculadora financeira HP 12C

Existem uns ícones no mundo da tecnologia que perduram por muito tempo de forma ilógica. Tendem mais a fenômenos culturais de comportamento, hábitos e costumes do que propriamente um curso natural de evolução tecnológica.

É incrível como o velho CD (Compact Disc) de áudio (estéreo simples e codificação PCM) ainda sobrevive ante tanta evolução — concretizada há anos — no campo do áudio digital, desde formatos voltados à alta compactação como MP3 a Ogg Vorbis, até os recursos de mais alta fidelidade estereofônica multicanais, como os padrões Dolby Digital, DTS, as mídias Super Audio CD (SACD), DVD-Audio, Blu-ray etc. etc.

Também é espantoso observar quanto tempo durou a agonizante persistência do arcaico e frágil disquete magnético de 1,44 MB, até finalmente atingir razoável obsolescência atual em prol da memória flash dos pen-drives e cartões de memória (SD, MMC etc.).

HP 12c gold (por Wikipedia)

Mas pelo menos um “clássico” — originário da mesma década de 80 que os demais citados — persiste firme e forte até hoje: A calculadora financeira HP 12C, ainda presente sobre mesas de milhões de profissionais das áreas financeira e contábil.

A 12C (assim como outras calculadoras científicas da HP e de outros frabricantes) tem uma forma de entrar valores e executar operações — que pode até ser muito lógica para a cabeça de um programador — totalmente anti-natural a qualquer ser humano regular. Suas operações são baseadas no cálculo pos-fixado, em que se entram primeiro os operadores (a tecle ENTER é usada para delimitar/separar cada valor) e depois se executa a operação.

Talvez seja o seu recurso de cálculo de juros campeão de audiência — operado pelos botões de comando n, i, PV, PMT, FV (número de períodos, índice, valor presente, pagamento/amortização, valor futuro). Talvez seja só mesmo um fenômeno cultural como falei. O fato é que a HP 12C continua por aí.

Para quem ainda cede aos encantos dessa calculadora, mas se recusa a comprar o engenho, talvez já bastem os emuladores existentes. Eis alguns:

E para mais informações:

O fundo do poço da terceirização

O artigo que recomendo é de 11 de setembro, mas a tragédia que ele descreve não é a das torres gêmeas.

Fala da crise na relação entre empresas e seus fornecedores de serviços de desenvolvimento e manutenção de sistemas, que nunca foi muito harmonioso, mas parece estar chegando ao fundo do poço.

Leia o artigo No Fundo do Poço, por Paulo F. Vasconcellos (*), em seu blog Finito. Estou certo que, se você é profissional de TI/software — contratante ou fornecedor — o relato ilustrativo da crônica vai soar no mínimo plausível, quiçá familiar.

Acrescento a seguir minha reflexão sobre o tema.

Terceirização de TI é um caminho de fluxo intenso nas empresas. Já foi do desenvolvimento de software ao SaaS, da consultoria em infraestrutura ao cloud computing.

As motivações mais comuns são economia — de dinheiro, tempo, ou pessoal. Já as mais nobres incluem busca por flexibilidade, eficiência e até agregar valor ao negócio. Mas os resultados concretos muitas vezes são recheados de casos de problemas, frustrações e insucessos.

Para as empresas contratantes, creio que o mais importante é perceber que terceirização não é uma válvula de escape nem eliminação de um trabalho, mas sim a troca de um modelo de trabalho — baseado em produção interna — por outro — baseado em contratação.

Se por um lado libera a empresa da execução interna de uma série de atividades que passam a ser realizados por terceiros, por outro lado cria ou intensifica outras.

A terceirização exige que a empresa invista internamente na inteligência e análise de negócios, no estreitamento das relações da TI com as áreas demandantes e suas reais necessidades — o que costuma ser sintetizado pela expressão “alinhamento estratégico” — e na gestão de projetos e contratações.

O ambiente empresarial propício da contratante ainda suscita boa padronização e maturidade dos seus processos de trabalho (pelo menos das áreas que demandam a TI). E ao lidar com fornecedor, por mais “parceiro” que este seja, deve-se sempre seguir o princípio “confiar mas vigiar”.

Se na terceirização de TI, especialmente em software, não houver a devida preocupação e investimento da empresa contratante nestes aspectos que citei, essa troca corre o sério risco de não ser vantajosa, não colher a economia, a melhoria ou o produto esperados.

(*) Paulo F. Vasconcellos é consultor e palestrante com mais de 20 anos de experiência em projetos de tecnologia da informação, pioneiro na Formação de Analistas de Negócios (FAN).