Solicitar demo

Blog

Voltar

O Bê-a-Bá do Big Data Analytics

O Bê-a-Bá do Big Data Analytics

Parte I — Desmistificando Conceitos

É inegável que estamos diante de uma mudança econômica profunda decorrente da ubiquidade de novas tecnologias da informação e interconectividade, que vai do smartphone em nossos bolsos até uma complexa rede de satélites em órbita. Dez anos atrás, termos como Big Data e Deep Learning ainda não faziam parte do nosso vocabulário. Hoje, os mesmos inquietam os principais líderes pelo mundo que enxergam oportunidades ou ameaças, mas que, raramente, se mantém apáticos.

Como o novo e o disruptivo ajudam a vender, bem como a intimidar, muitos acabam cometendo o erro de acreditar que a adoção tecnológica por si só irá gerar resultados. A realidade é que muitas das promessas tecnológicas não são concretizadas. Lembra do assistente inteligente da Microsoft, o Clippy? É fácil ironizá-lo hoje, mas, leva tempo até que as diferenças entre sucesso ou insucesso se evidenciem.

Ainda há muito ruído sobre o significado, sucesso e tendências ao redor de Big Data Analytics. Essa série de artigos é um esforço para tentar desmistificar um pouco o tema. Para tratar o assunto com a devida profundidade, dividimos o conteúdo em três partes

  • Parte I - Desmistificando conceitos,
  • Parte II - Sucesso nos negócios,
  • Parte III - Desafios no Brasil.

Nessa primeira parte, iremos reforçar alguns conceitos básicos como Big Data e Deep Learning. No segundo post, iremos discutir como esses conceitos são usados para o sucesso de negócios hoje. A série termina com uma avaliação dos desafios presentes no Brasil.

O que é Big Data?

O termo Big Data é utilizado para descrever volumes de dados que são tão grandes ou complexos que sistemas computacionais tradicionais não conseguem processar. Note que 100MB de dados já foi considerado Big Data na época dos disquetes , e que, portanto, a categorização do Big Data evolui continuamente. Atualmente, o termo “Big Data” está relacionado com o grande volume de dados e informações que a digitalização gera por meio de smartphones, redes sociais, IoT, etc. À definição de Big Data, são “classicamente” atribuídos três Vs, que limitam a capacidade de processamento dos dados: “Volume”, “Variedade” e “Velocidade”. Cada uma dessas dimensões apresenta desafios tecnológicos distintos. Porém, mesmo que esses desafios sejam vencidos, a utilidade e a veracidade desses dados também são relevantes e, hoje, é comum se atribuir outros dois Vs: “Veracidade” e “Valor”.

O que é Inteligência Artificial?

Inteligência Artificial pode ser definida como a capacidade de certos sistemas técnicos, - como algoritmos em um computador -, de demonstrar habilidades cognitivas que, até então, eram exclusivas de humanos. Assim, a utilização do termo IA evolui de acordo com o entendimento comum da fronteira entre o que é possível realizar por meio de sistemas técnicos ou não. Certamente, uma boa planilha de cálculo poderia ser considerada uma forma impressionante de IA antes da invenção dos computadores pessoais. Hoje, estamos em uma época de forte expansão dessa fronteira, em que a capacidade cognitiva de sistemas técnicos tem sido expandida ao ponto de conseguir reconhecer e interpretar texto, voz, imagens, realizar tradução simultânea e até dirigir nossos carros. Apesar desse grande avanço, a IA atual não se equivale à inteligência de um ser humano, que é mais generalista. Todas as soluções de IA disponíveis hoje são exemplos do que se conhece por IA Estreita, que são somente capazes de performar tarefas específicas usando capacidades que imitam um humano em contextos limitados.

O que é Machine Learning? Como funciona?

Machine learning é um subcampo de IA que estuda algoritmos com capacidade de aperfeiçoar a execução de uma certa tarefa sem instruções explícitas, o que permite reconhecer padrões e fazer inferências. A distinção de instruções explícitas é importante, por indicar que a maneira de se chegar numa resposta não é pré-programada, mas que o próprio algoritmo faz essa descoberta. É essa capacidade que hoje gera tanto fascínio com a IA e que nos faz perguntar: “como a máquina aprendeu isso sozinha?”. O curioso é que esses sistemas conseguem aprender tanto tarefas que seriam possíveis de serem instruídas explicitamente, como, por exemplo, tocar piano e jogar xadrez, bem como tarefas aprendidas implicitamente, como reconhecer faces e objetos. Com um grande volume de dados “gabaritados”, em que se sabe a resposta correta, a IA aprimora suas respostas e, minimiza, assim, os erros da sua decisão. Um dos desafios está em se ter acesso a um volume significativo de dados gabaritados que possibilitem à IA alcançar resultados satisfatórios. Algumas empresas se aproveitam da sua escala global para pedir uma “ajudinha” de nós, seres humanos, para prover dados supervisionados, como é o caso de captchas que solicitam ao usuário a resolução de tarefas simples como a identificação de elementos em imagens.

O que é Deep Learning?

A capacidade de aprendizado da IA depende da sua capacidade de representar o problema em questão. Uma das formas de representação foi inspirada em como um sistema neurológico real funciona. Em IA, redes neurais são modelos matemáticos que têm uma estrutura que se assemelha a uma rede de múltiplas camadas de neurônios interconectadas e ativadas por sinapses. Redes neurais que possuem um grande número de camadas, mais do que três, são reconhecidas como redes profundas e daí surge o nome Deep Learning. Deep learning alinhado a Big Data têm trazido avanços significativos em problemas em que não é fácil de se explicitar uma solução como visão computacional e processamento de linguagem natural. A comunidade científica passou décadas tentando criar um programa para identificar e classificar objetos em imagens, pois é muito difícil descrever isso explicitamente .Como você descreveria a um computador o que é um carro? Esse tipo de IA, contabilizou ganhos de performance de grande magnitude, e abriu um grande leque de novas possibilidades.

Quais são os limites para a IA?

Essa é, claro, uma pergunta que ninguém consegue responder. Hoje, a evolução de algoritmos de aprendizado de máquina é a área em que os maiores avanços têm sido feitos. A capacidade de algoritmos representarem diferentes tipos de problemas tem se mostrado muito elástica com redes neurais profundas e acredito que ainda temos muito campo para explorar. A capacidade de resolver problemas por meio de computadores tem se mostrado coerente com a lei de Moore de crescimento exponencial e, apesar de começar a mostrar limitações, um eventual advento de computadores quânticos irá puxar isso muito além do que julgamos possível hoje. Talvez, a maior limitação seja a capacidade de formularmos os problemas que gostaríamos de resolver de forma que possam ser compreendidos por uma máquina. Hoje, usamos a linguagem matemática para isso, porém, alguns problemas ainda não conseguimos “traduzir” como, por exemplo, o que são ética e moral. Se a frase, atribuída a Galileo,

“Matemática é a linguagem com que Deus escreveu o universo.”

Galileo, sábio italiano, que também gostava de desmistificar conceitos, como o geocentrismo

Galileo, sábio italiano, que também gostava de desmistificar conceitos, como o geocentrismo.

for verdadeira, basta continuarmos investindo em matemática. Ou, talvez, isso se prove falso, bem como a duvidosa atribuição do autor à frase

Conclusão

Com essa primeira parte, espero que você possa ter se familiarizado melhor com alguns dos principais conceitos por trás do Big Data Analytics e da revolução digital. Porém, não paramos por aqui. Entender essas tecnologias é só o primeiro passo. A verdadeira revolução vem quando utilizamos essas tecnologias para gerar resultados.

No próximo post iremos mostrar como empresas têm utilizado essas tecnologias para aumentar a sua competitividade.

Este artigo foi originalmente postado no Medium.

Quer saber como fazemos na prática?

Solicitar demo