Loading...

Follow Big Data Business on Feedspot

Continue with Google
Continue with Facebook
or

Valid

Quando estamos planejando os desafios dos nossos Bootcamps, sempre pensamos em algo empolgante e em projetos reais. A Tera acredita muito no Tech For Good e no quanto a tecnologia pode ajudar as pessoas. No último Bootcamp de Data Science & Machine Learning for Business, os participantes tiveram que propor soluções para a área de saúde pública através dos dados de internação do SUS – Sistema Único de Saúde. A história que nos inspirou veio de um deles e o resultado foi emocionante e validado pelo Secretário de Saúde da Prefeitura de São Paulo.

Renato Vieira, médico pela UNIFESP, fez residência em Psiquiatria Geral, atuou durante alguns anos como psiquiatra clínico e psicoterapeuta, hoje é gerente médico corporativo na Beneficência Portuguesa de São Paulo e confessa que, no início da carreira como gestor, encarou como obstáculo a necessidade de medir desempenho e demanda. A necessidade virou paixão e agora se ocupa em buscar respostas para medir a força do acaso e como traduzir comportamento em números.

Nos últimos anos, a BP tem investido em cultura digital, promovendo a informatização de suas unidades, e a Gerência Médica Corporativa, sob gestão de Renato, é um dos setores cuja função é transformar essas informações em processos de melhoria. O Bootcamp da Tera, diz Renato, aumenta a capacidade de planejamento de projetos ligados a essa transformação – dele e de sua equipe. Renato acredita que o gestor deve “tornar claro para sua equipe o significado dos dados que recebe e que produz, partilhando o processo decisório de forma transparente e aberta.” Essa atitude, aliada ao conhecimento dos próprios limites e a vontade de aprimorar suas capacidades, é essencial para o gestor saber que tomou uma decisão baseada num processo de sólida sustentação prática e teórica.

Há um desafio, no entanto, que Renato destaca para que serviços de saúde brasileiros façam proveito desse processo de tomada de decisão: a geração de dados de qualidade. Muitos hospitais do SUS não possuem sistema de prontuário eletrônico, por exemplo, e quase metade dos hospitais brasileiros são pequenos – com menos de 50 leitos – e com arquitetura de gestão de dados insuficiente, o que, de acordo com Renato, é “um desastre para a qualidade das informações inseridas, dificultando muito a identificação ‘fina’ das demandas epidemiológicas nacionais. Uma política consciente – e duradoura – de gestão da informação poderia trazer ganhos gigantescos ao planejamento de alocação de recursos, trazendo maior eficiência ao SUS.”

Outra questão destacada por Renato é a metodologia de análise de dados clínicos no Brasil. “Tradicionalmente, os aspectos relativos ao diagnóstico (tipicamente codificados pela Classificação Internacional de Doenças, CID-10), idade, uso de recursos hospitalares ou comorbidades são tratados de forma ‘univariada’, individualmente, ou como combinação de itens”, explica ele. Entretanto, nas últimas décadas, “uma grande evolução em modelos de análise por ‘clusters’ multidimensionais, agrupando informações clínicas em entidades clínicas conhecidas como DRG (Diagnosis Related Group). O potencial de uso destas metodologias está apenas começando, e pode representar um avanço significativo no planejamento dos serviços de saúde”, aposta.

Renato aposta, também, que os hospitais de referência devem inspirar o setor para que os gestores de instituições menos preparadas consigam enxergar possibilidades de ganho na aplicação da ciência de dados na saúde no Brasil e provoquem o que ele coloca como um desafio: o uso eficiente dos dados para melhorar a vida das pessoas.

Sobre o autor:

Luisa Falcioni é coordenadora do Programa de Data Science & Machine Learning for Business da Tera.

[contact-form-7]

The post Como a análise de dados irá impactar o SUS e demais serviços de saúde no Brasil appeared first on Big Data Business.

Read Full Article
  • Show original
  • .
  • Share
  • .
  • Favorite
  • .
  • Email
  • .
  • Add Tags 

Ao longo dos últimos anos, com a Inteligência Artificial, setores da economia obtiveram avanços interessantes. A tecnologia tornou-se mais acessível, ajudando no desenvolvimento e transformação.

Embora possa não ser tão óbvio para os consumidores finais, a Inteligência Artificial também vem sendo aplicada com sucesso no setor varejista, como você verá neste artigo.

Formas de utilização da Inteligência Artificial no varejo

Hoje, os varejistas usam a Inteligência Artificial predominantemente de três formas, segundo relatório da Fung Global Retail Tech, empresa inglesa de pesquisa que divulga pesquisas inovadoras e relevantes para negócios globais de varejo: na personalização das ofertas de itens, no atendimento ao cliente e no gerenciamento de seus estoques.

No caso da personalização, foco deste novo artigo, as empresas varejistas já fazem ofertas de itens específicos para cada cliente (1 to 1) com base em seus hábitos de compra ou por meio dos seus sistemas de CRM (Customer Relationship Management).

Obviamente, as questões de privacidade devem ser consideradas. A situação ideal seria incentivar os compradores a optar por um esquema em que fornecessem dados detalhados sobre hábitos, além de gostos e desgostos. Tais dados, adaptados por um sistema de Inteligência Artificial, poderiam oferecer-lhes descontos especiais em itens de sua lista de desejos. O mesmo sistema também poderia ser usado para rastrear os padrões de compra, tanto online quanto em lojas físicas, para recomendar itens adicionais que combinariam, por exemplo, com uma peça de vestuário ou item de moda que eles já tivessem escolhido.

Detalho, a seguir, o caso de uma empresa que está usando as recomendações aos clientes como forma de alavancar suas vendas.

Recomendações para os Clientes

Um exemplo interessante de recomendações a clientes, ou concierge, pode ser dado pela empresa norte americana The North Face, especializada em vestuário, calçados e equipamentos para esportes de neve. O sistema de Inteligência Artificial utilizado pela companhia recomenda produtos para a compra com base em variáveis como intenção, localização, preferência de cor, tamanho ou gênero. Por exemplo, caminhar na Islândia em outubro ou viajar a Toronto em janeiro produzem sugestões de compra diferentes.

Os resultados do piloto, realizado em 2015, indicaram, segundo a própria empresa e tendo como base dados coletados de 55.000 usuários, uma taxa entre 60% e 75% maior de conversão de cliques em vendas.

Ofertas cada vez mais personalizadas

Em vez de gastar milhões em anúncios de televisão (alguns deles brilhantes) que tentam atingir a todos mas que, na verdade, só conseguem influenciar uma porcentagem muito pequena de telespectadores, alguns varejistas estão incorporando a Inteligência Artificial em suas ações de marketing.

Com a tecnologia certa já é possível criar material promocional que alcance exatamente o público-alvo com grande precisão. Espelhos inteligentes que, na verdade, são imensos monitores com sensores incorporados, são capazes de sobrepor e combinar itens de vestuário com qualquer peça que um cliente já esteja experimentando. Algumas destas telas já são rotineiramente usadas no Japão e na China para aumentar as vendas. Apesar de tal tecnologia ainda ser dispendiosa e não estar disponível para todos, em breve esse cenário deverá mudar.

Um exemplo do que digo acima pode ser dado pela gigante chinesa de e-commerce Alibaba. A empresa tem feito parcerias com lojas físicas para colocar as telas em operação. Em 13 lojas espalhadas pela China, nas quais o sistema está em uso, percebe-se um aumento significativo das vendas.

Como isso funciona? Por meio de sensores incorporados à roupa, o sistema de Inteligência Artificial que conduz a tela de exibição sabe qual peça está sendo testada. Em seguida, sugere itens de moda adicionais que combinam com o perfil do cliente. O sistema ainda fornece uma representação visual do item sugerido na tela, combinando-o com a roupa já escolhida pelo próprio cliente.

Uma selfie e voilà

Mais um exemplo de uso eficaz da Inteligência Artificial pode ser dado pela varejista de beleza Sephora. Sephora é a maior rede de produtos de beleza do mundo, fundada na França, e desde 1997 faz parte do LVMH Moët Hennessy Louis Vuitton, maior conglomerado de luxo do mundo.

A companhia desenvolveu e disponibilizou, recentemente, um aplicativo que permite aos usuários encontrar os tons e produtos certos, simplesmente enviando uma fotografia de si mesmos. De posse das fotos, das características do cliente e de sua intenção, o sistema com Inteligência Artificial embutida oferece os produtos mais adequados. Para o consumidor, a vantagem é clara: podem comprar, onde quer que estejam, batons e sombras de olhos, por exemplo, de forma simples e fácil sem que seja necessário visitar uma loja física.

Conclusão

Com estes exemplos, fica claro que a maioria dos varejistas não conseguirá sobreviver por muito mais tempo usando seus modelos de negócio atuais. As táticas que funcionaram para eles no passado – promoções, descontos e similares – já não são as únicas capazes de atrair as pessoas para as lojas.

Para que os varejistas possam prosperar neste mundo novo, é necessária uma dose saudável de reinvenção. Por muito tempo, as empresas têm financiado gastos e recursos para sustentar seus negócios em dificuldades. Em vez disso, reafirmo que os varejistas precisam incorporar automação e Inteligência Artificial em seus pontos de contato com o cliente para melhorar a sua experiência de compra. Percebo nas minhas pesquisas e estudos que ainda falta, para a grande maioria dos varejistas, integrar ações que permitam esse salto para o futuro. Contudo, nunca é tarde para começar.

Sobre o autor:

Leonardo Pellegrino é executivo de varejo e consultor de empresas com passagem por GPA (Pão de Açúcar), Dia% Group, Lojas Marisa, Grupo Multiformato e Ernest & Young. Economista e mestre em ciência da informação pela UFMG. Especialista em gestão e uso competitivo da informação. Participante ativo em projetos de inovação que unem varejo e Big Data Analytics.

[contact-form-7]

The post Inteligência Artificial proporciona melhor experiência de compra para clientes do varejo appeared first on Big Data Business.

Read Full Article
  • Show original
  • .
  • Share
  • .
  • Favorite
  • .
  • Email
  • .
  • Add Tags 

As tecnologias de Inteligência Artificial (IA) e Ciência de Dados têm impactado diretamente desde a forma de se fazer negócios até o modo de se viver. Aqui no blog, já mostramos dezenas e dezenas de cases e exemplos do poder dos dados na sociedade, no mercado de trabalho, na educação, na saúde, no transporte e até nos relacionamentos.

No entanto, talvez até pelo encantamento geral que tomou conta das pessoas em relação à Inteligência Artificial (e não sem razão, tendo em vista todos os avanços e conquistas alcançados graças a essa tecnologia), aspectos fundamentais ao seu uso positivo e correto, como ética, responsabilidade e privacidade, têm sido pouco discutidos.

Diante desse cenário, Carolina Bigonha e Thiago Cardoso, sócios-fundadores da Hekima, Jan Diniz, do Grupo Anga, e Vitor Oliveira, Chief Data Scientist também da Hekima, fundaram o Em Perspectiva. Trata-se de uma iniciativa sem fins lucrativos, para promover uma narrativa positiva para Inteligência Artificial no Brasil.

De acordo com Carolina, “o objetivo da organização é ativar empreendedores, políticos, acadêmicos, gestores e a sociedade civil para pensar ativamente em como a IA e o uso de dados pode impactar o dia a dia da sociedade brasileira. Assim, poderemos gerar massa crítica e conteúdo relevante para suportar novas políticas públicas, códigos de ética em dados e outras reflexões”, afirma.

Carolina Bigonha Inteligência Artificial Em Perspectiva

O primeiro ato do Em Perspectiva em direção a uma discussão sobre Inteligência Artificial e dados, pautada sob o olhar da ética e da responsabilidade, ocorreu na última terça-feira, 20/03, em São Paulo.

Refiro-me ao evento Inteligência Artificial Em Perspectiva, que, segundo Carolina, tinha três principais objetivos: “Apresentar a relevância deste assunto e mostrar porque chegou a hora de o Brasil levantar formalmente esta pauta; promover uma interação entre lideranças de diferentes setores, com experiências complementares sobre o tema; e iniciar um grupo de trabalho diverso e multidisciplinar para a construção de estudos e iniciativas relacionados”, conclui.

Ao longo do encontro, profissionais de renome em diferentes áreas, como tecnológica, educacional e jurídica, discutiram os limites da ética, privacidade e responsabilidade no desenvolvimento e aplicação de soluções de Inteligência Artificial e Ciência de Dados.

Luciano Sathler, Reitor do Centro Universitário Metodista Izabela Hendrix (instituição essa que elaborou o primeiro Curso Superior de Tecnologia em Ciência de Dados do Brasil), falou sobre a importância de o Brasil formar profissionais capacitados a desenvolver e utilizar bem tecnologias de IA no país. “Além da elaboração de um código de ética ou de conduta, é preciso que o Brasil se organize para formar pessoas com as competências técnicas necessárias para que tenhamos uma posição melhor no desenvolvimento e utilização da Inteligência Artificial. Outras nações, como a China e os EUA, incluem até em suas forças armadas divisões especializadas nas tecnologias digitais mais avançadas, pois esse é atualmente um campo obrigatório para a Defesa Nacional”, ele ressalta.

Luciano Sathler (centro) durante o Inteligência Artificial Em Perspectiva Cenários extremos e (nem tão) hipotéticos

Um dos destaques do evento foi uma dinâmica em que os participantes deveriam debater acerca de situações extremas causadas por ou envolvendo o uso de IA e de dados. Foram levantados cenários que até pouco tempo faziam parte do imaginário e da ficção científica, mas que devem se tornar cada vez mais frequentes, como: “Um carro autodirigido está atravessando uma ponte estreita, quando, de repente, uma criança pula para frente dele. É tarde demais para parar. As únicas opções são: (1) avançar e atropelar a criança ou (2) desviar, jogando o seu passageiro rio abaixo. O que o carro deveria fazer?” (lembrando que, nesta semana, ganhou destaque mundial a notícia de que um carro autônomo da Uber atropelou e matou uma mulher).

Ou então: “Uma pessoa poderia ser detida preventivamente devido ao seu comportamento de compra, lugares que visitou ou pessoas com quem interagiu?” (contexto que parece ter saído diretamente do filme Minority Report, mas que já começou a ser realidade na China).

Participantes durante a dinâmica (Créditos/imagem: Eduardo Figueiredo)

Em algumas situações, o “veredito” foi mais facilmente definido. Contudo, em outras, os participantes chegaram à conclusão de que não havia exatamente “certo” ou “errado”, e sim pontos de vista diferentes, influenciados por questões subjetivas, como experiência de vida ou visão de mundo.

Essa percepção gerada pela dinâmica expôs algo que aparenta ser óbvio, mas que só salta aos olhos quando exposto dessa forma: nós ainda não temos respostas claras e definidas para grande parte, senão a maioria, dos impactos e desdobramentos gerados pelas tecnologias de Inteligência Artificial! Por isso é tão importante e imediato que pensemos em novas políticas públicas, códigos de ética em dados e outras ações nesse sentido.

Para refletir

Ao final do evento, foram distribuídas perguntas para os participantes, visando a reflexão sobre os temas discutidos ao longo do encontro. Foram elas:

  • Você confiaria em um software de aprovação ou recusa automática de empréstimo? Por quê? #confiança #justiça
  • Como lidar com o viés da inteligência artificial? Como eliminar o preconceito e racismo de sistemas com inteligência artificial? #justiça #viés
  • Como inserir conceitos e senso de justiça em sistemas com inteligência artificial? Como tratar minorias? #justiça #viés
  • Como tornar soluções com inteligência artificial confiáveis? Quando as pessoas confiarão em soluções com inteligência artificial? #confiança
  • Quando soluções\sistemas de inteligência artificial precisam ser transparentes? Toda decisão precisa ser interpretável por uma pessoa? #transparência
  • De quem são os benefícios gerados por sistemas inteligentes quando os dados são de usuários? Como respeitar a privacidade? Como devolver valor? #privacidade
  • Até que ponto vale a pena entregar seus dados para receber um benefício? #vigilância #privacidade
  • Até que ponto automações podem exacerbar a desigualdade e privar acesso? Como IA pode ser inclusiva? #impactosocial
  • Quem é responsável pelas consequências de uma decisão de sistema em inteligência artificial? #responsabilidade
  • Como regular os impactos da inteligência artificial? Como não criar barreiras para inovação? #legislação

Quais respostas você daria a essas perguntas? Conte nos comentários!

The post Evento discute Inteligência Artificial sob a perspectiva ética appeared first on Big Data Business.

Read Full Article
  • Show original
  • .
  • Share
  • .
  • Favorite
  • .
  • Email
  • .
  • Add Tags 

Desde o nosso início, pensamos em ser uma empresa diferente. Que não fosse “apenas” uma organização que se destacasse no mercado e tivesse um portfólio de grandes clientes, mas também um ambiente de trabalho capaz de impactar positivamente os nossos colaboradores e fomentar o desenvolvimento pessoal e profissional deles.

Passados os anos, podemos dizer que estamos, passo a passo, nos tornando essa empresa que sempre sonhamos em construir. Prova disso é que, pela segunda vez, fomos considerados uma das melhores empresas do país para se trabalhar, segundo pesquisa do Great Place to Work® Brasil!

O Ranking Melhores Empresas para Trabalhar é o padrão de excelência para a definição de excelentes ambientes de trabalho, e o Great Place to Work conduz essa pesquisa presente em mais de 50 países espalhados pelos seis continentes.

Em 2015, vencemos a primeira edição da categoria Destaque No Caminho Certo. Neste ano, entramos no Ranking Melhores Empresas para Trabalhar GPTW – Microempresas 2018.

O que nos deixa mais felizes nesta conquista é que fomos “eleitos” pelos nossos próprios colaboradores, por meio de uma pesquisa respondida por eles sobre o nosso ambiente de trabalho. Ou seja, é um reconhecimento de dentro para fora do trabalho contínuo que temos feito para tornar a Hekima um lugar para se trabalhar cada vez melhor!

E você, também quer fazer parte de uma empresa que está construindo um ambiente de trabalho cada vez mais saudável, horizontal, divertido e inovador? Então clique aqui para se candidatar às nossas vagas abertas!

The post Hekima é eleita uma das melhores empresas para se trabalhar no Brasil! appeared first on Big Data Business.

Read Full Article
  • Show original
  • .
  • Share
  • .
  • Favorite
  • .
  • Email
  • .
  • Add Tags 

Já pensou em quantas informações valiosas você pode perder simplesmente por não fazer perguntas?

Ebooks, infográficos, planilhas, podcasts… Todos esses materiais você já conhece e possivelmente já utiliza em sua estratégia de Marketing.

Porém, você já pensou em fazer pesquisas?

Elas possuem muitos benefícios tanto para o seu negócio, por meio da geração de dados relevantes e que podem ajudar na sua tomada de decisão, quanto para o seu público, por meio de um material que gera valor e aumenta a confiança das pessoas no seu negócio.

Por isso, se você ainda não sabe como fazê-las e como elas podem beneficiar sua empresa e seus consumidores, baixe agora este material, criado pela Hekima em parceria com a Rock Content, maior empresa de Marketing de Conteúdo no Brasil!

Com este material você entenderá:

  • Qual o papel de uma pesquisa em uma estratégia de Marketing;
  • Quais os benefícios dela para você;
  • Quais os benefícios para os seus clientes;
  • Como elaborar pesquisas realmente eficazes;
  • Como validar dados;
  • E muito mais!

The post [NOVO EBOOK] Por que fazer pesquisas: os benefícios dessa geração de dados para você e seu público appeared first on Big Data Business.

Read Full Article
  • Show original
  • .
  • Share
  • .
  • Favorite
  • .
  • Email
  • .
  • Add Tags 
Artigo publicado em 10/01/18

As organizações, cada vez mais, estão entendendo que existem informações valiosas “escondidas” nos seus sistemas que podem transformar suas operações.

Data Analytics, ou análise de dados, tem crescido em todo o mundo, tornando-se mais prescritiva, sendo aplicada com ênfase na tentativa de traçar novos rumos para empresas, ansiosas por crescimento.

Estes novos rumos, bem como exemplos de usos inovadores da análise de dados no Varejo, serão tema desse artigo.

Evolução das análises de dados

Naturalmente, o primeiro passo para a análise dos dados é definir seu processo de coleta. Obter, higienizar e armazenar os dados de uma maneira simples e sustentável é essencial para extrair valor deles.

Para se tornar a ciência sofisticada que é hoje, a análise de dados sofreu uma transformação fundamental nos últimos anos. Na sua primeira fase, a análise de dados era simplesmente descritiva. Ela podia ser traduzida em ferramentas e relatórios que reuniam alguns conjuntos de dados que descreviam os fatos passados.

O estágio seguinte na evolução das análises levou ao que se chama hoje de análise diagnóstica: etapa que permite entender melhor as condições que produzem aquele conjunto de dados. Ou seja, além de descrever os fatos, permite uma avaliação deles.

Depois da fase diagnóstica veio a análise sob uma perspectiva preditiva, na qual os analistas começaram a projetar o futuro. Passaram a utilizar, portanto, o conjunto de dados para descrever (descritiva), diagnosticar (diagnóstica) e também para prever resultados (preditiva).

Em um passo além, a técnica evoluiu para algo ainda mais analítico, dedicado a encontrar o melhor curso de ação para uma determinada situação, também conhecida como análise prescritiva.

Um exemplo bastante interessante da análise prescritiva pode ser dado pela TESCO, empresa britânica, com lojas em 12 países entre Ásia e Europa, considerada a nona maior varejista do mundo em termos de receita e terceira maior em termos de lucratividade.

A TESCO decidiu abordar, de forma proativa, o seguinte problema: como reduzir custos de energia com a devida manutenção dos equipamentos de loja. A companhia começou a coletar dados por meio de sensores instalados nas geladeiras das suas unidades operacionais. Ela alimentou uma base de dados dedicada exclusivamente à análise e, a partir do processo de Big Data Analytics, conseguiu administrar o seu custo de energia de forma mais eficaz. Manteve controles acurados de performance medindo cada máquina. Identificou quando precisariam de manutenção, em quais peças e quando, portanto, precisariam fazer as encomendas aos fornecedores.

Leia também: Tipos de análise de Big Data: você conhece todos os 4?

Análise semântica, a nova fase

Uma nova fase evolutiva das análises está chegando ao mercado: a análise semântica. Ela deve ser entendida como a arte de entender além do que pode ser visto. Pode ser usada para descobrir uma estrutura e/ou um significado a partir de um conjunto de dados. A idéia por trás deste tipo de análise é usar a semântica para identificar intenções, causas e efeitos ocultos dentro dos dados disponíveis.

Uma parceria entre uma grande varejista de moda e a Universidade de Cornell, nos Estados Unidos, permitiu o uso da análise semântica para descobrir o que realmente está acontecendo na moda. Ou seja, identificar o que as pessoas realmente estão vestindo.

As revistas de moda oferecem a imagem. A explosão dos blogs de moda, dos digital influencers e do Instagram já mostram muito mais. Contudo, uma visão do que chamaram de “StreetStyle” foi além. Explorou estilos de roupas de milhões de fotos em todo o mundo. Uma rede neural de visão computacional personalizada foi treinada em 15 milhões de fotografias advindas de serviços de compartilhamento de fotos e de plataformas de redes sociais.

Neste processo de aprender a detectar tudo, as máquinas identificaram desde o comprimento da manga das camisas até a cor das calças, fornecendo uma visão completa da moda em tempo real. Em algumas horas, a rede neural foi capaz de fazer o trabalho de um exército de “fashionistas”. Mesmo trabalhando ao longo de meses, os “fashionistas” não seriam capazes de tratar as fotografias com tanta acuracidade quanto os computadores o fizeram.

Usando os atributos detectados, a varejista contratante pôde identificar, por exemplo, em quais partes do mundo e época do ano as pessoas estavam usando chapéus, além das cores mais populares e os motivos por trás da escolha de cada peça. Em outras palavras, a visão por computador descobriu, em escala global, exatamente o que as pessoas estavam vestindo, quando, por quê, além do que usariam futuramente (tendência). A varejista foi capaz então de calibrar a oferta e a demanda, propondo em tempo real ajustes aos fabricantes e a melhor distribuição dos itens para atender as expectativas dos compradores.

Uma iniciativa similar, desta vez da Edited, empresa de análise de varejo com base na Inglaterra, também usou a visão computacional para ajudar seus clientes (no caso, companhias do mercado da moda). A partir do rastreamento dos sites de comércio eletrônico de marcas de vestuário e de varejistas em todo o mundo, a Edited também foi capaz de captar e ler informações visuais das imagens, tais como cor e corte, além de datas de lançamento das coleções.

Como ganhos para seus clientes, a ferramenta da Edited permitiu a obtenção de uma leitura do ambiente competitivo em tempo real. Por exemplo, as empresas puderam descobrir instantaneamente o preço médio de praticamente todos os vestidos vermelhos vendidos on-line nos EUA. Puderam também identificar como esses mesmos vestidos evoluíram ao longo de um curto período de tempo (semanas) e quando os comprimentos das peças aumentaram ou diminuíram.

De posse dessas informações, as empresas mapearam os concorrentes, identificando oportunidades futuras. Em resumo, a ferramenta da Edited permitiu o fim do jogo de adivinhação sobre o que está disponível no mercado, mostrou à empresa varejista a necessidade de ter mais critério e rapidez quanto à introdução ou descontinuidade de itens, reavaliando o ciclo de vida das suas coleções.

Conclusão

É inegável a evolução das análises de dados, indo da simples identificação de fatos passados à prospecção do futuro, com a melhor rota a seguir. A nova perspectiva gira em torno da identificação das intenções, causas e efeitos ocultos dentro dos dados disponíveis. Tal evolução comprova o quão valiosas são as análises para as empresas.

É certo que as companhias operam de forma diferente e, portanto, têm objetivos ou ideias distintas para aproveitar a enorme quantidade de dados gerados. O importante é ficar de olho nas muitas organizações que já entenderam como Big Data Analytics se aplica ao que fazem, aproveitando-se dos impactos transformadores. Elas devem servir de inspiração.

Sobre o autor:

Leonardo Pellegrino é executivo de varejo e consultor de empresas com passagem por GPA (Pão de Açúcar), Dia% Group, Lojas Marisa, Grupo Multiformato e Ernest & Young. Economista e mestre em ciência da informação pela UFMG. Especialista em gestão e uso competitivo da informação. Participante ativo em projetos de inovação que unem varejo e Big Data Analytics.

[contact-form-7]

The post A evolução de Big Data Analytics: da análise descritiva à semântica appeared first on Big Data Business.

Read Full Article
  • Show original
  • .
  • Share
  • .
  • Favorite
  • .
  • Email
  • .
  • Add Tags 

Paulistano de nascimento e mineiro de coração, Raphael Campos é um dos cientistas de dados da Hekima. Bacharel em Ciência da Computação pela Universidade Federal de Viçosa e Mestre pela Universidade Federal de Minas Gerais, na área de machine learning (aprendizado de máquina), em um ano de empresa ele já participou de projetos com grandes clientes, como Ambev, Saint-Gobain e Somos Educação.

Batemos um papo com Raphael para conhecer um pouco do trabalho de um cientista de dados. Tem interesse em se tornar um data scientist, ou mesmo entender como é a rotina de um profissional de Ciência de Dados? Então leia a entrevista abaixo!

Hekima: Como é o dia a dia de um cientista de dados?

Raphael: Trabalhamos com todo o pipeline de Data Science. O processo começa na preparação e análise da qualidade dos dados. Coletamos os dados “crus” do cliente, fazemos um levantamento para verificar se estão corretos e consistentes, se há algum dado faltante. Depois disso, normalizamos as várias fontes de dados, mesclando e corrigindo o que é possível.

Após conseguirmos uma qualidade satisfatória dos dados, fazemos outra análise, esta com um viés mais exploratório, na busca de insights e maior entendimento sobre os dados que nos ajudarão na criação do modelo preditivo. Isso tudo é um ciclo iterativo, nós sempre voltamos a etapas anteriores caso algum ponto não esteja bom o suficiente. Claro, sempre validando todo o processo com o cliente.

Leia também: Cientista de dados: que profissão é essa?

Hekima: Qual é a sua parte favorita no trabalho de cientista de dados?

Raphael: Sem dúvida, as partes de análises e criação dos modelos preditivos são as mais divertidas. Nas análises conseguimos “brincar” com os dados, descobrindo evidências que corroborem ou refutem nossas hipóteses, além de descobrir relações não antes pensadas. Os resultados dessas análises nos ajudam a criar o modelo preditivo ideal.

Hekima: E de qual parte você menos gosta ou considera mais difícil?

Raphael: A parte mais penosa, porém necessária, é a de preparação de dados. Ela é muito manual, pois apresenta especificidades que variam de projeto a projeto. Entre as variações de cada projeto, uma das mais frequentes é o formato dos arquivos onde os dados estão arquivados. Alguns formatos são bem trabalhosos, como PDF, e praticamente em todos os projetos em que trabalhei havia arquivos em PDF.

Além disso, muitas vezes o modelo preditivo não sai como desejamos. Em casos assim, temos de voltar na preparação dos dados, pois há a chance de eles não terem sido estruturados da forma correta.

A preparação de dados é algo constante no projeto. Dizemos que um trabalho de Data Science é dividido em 80/20, sendo 80 de preparação e 20 de análise.

Leia também: Data preparation: alicerce dos projetos de Big Data

Hekima: Quais linguagens você utiliza em projetos de Data Science?

Raphael: Já utilizei várias linguagens aqui na Hekima. Desde R e Python até Scala. Geralmente utilizamos Scala quando estamos trabalhando com Spark, para processamento de grandes volumes de dados. Então, basicamente são essas três linguagens que utilizamos bastante aqui.

Leia também: O dicionário de Big Data

Hekima: Quais são os principais desafios de um cientista de dados?

Raphael: Um dos principais desafios do cientista de dados é evangelizar o cliente. Mostrar como é o processo de se fazer Ciência de Dados. Ele se difere um pouco do processo de fábrica de software, em que você tem as especificações e é fechado. Ciência de Dados é algo muito mais, como o próprio nome diz, científico. Ali você tem hipóteses, irá experimentar, nada está pré-estabelecido. Tudo depende dos dados.

Além disso, até pelo hype do momento, é importante frisar que Data Science não é uma solução mágica. Por isso, deixar o cliente satisfeito, mas ao mesmo tempo alinhando as expectativas, é um desafio muito grande. Não só para os cientistas de dados da empresa, mas para a empresa como um todo.

Outro desafio, este mais técnico, é sempre se manter atualizado. Estão sempre surgindo coisas novas, e é uma “avalanche” de informação mesmo, até por ser uma área nova. Novos métodos, novos estudos. Esse é o maior desafio técnico, mas ao mesmo tempo é o que me mantém motivado.

Leia também: 6 tipos de conteúdos sobre Big Data

Hekima: A Hekima fomenta a busca por esses estudos?

Raphael: Sim, aqui todo mundo busca se aperfeiçoar e também passar o conhecimento para frente. Nos repasses de final de sprint (sprints são ciclos de atividades em que os projetos se dividem), por exemplo, sempre tem apresentação. O pessoal estuda alguma metodologia, conceito ou ferramenta nova e repassa para a equipe toda.

Essa prática é boa tanto para quem está apresentando, pois está consolidando o conhecimento que adquiriu, quanto para quem está assistindo, pois está absorvendo coisas novas. Isso é muito legal, pois nem sempre você consegue acompanhar tudo que está acontecendo, e chega outra pessoa da empresa e apresenta alguma coisa nova que você pode pesquisar mais a fundo depois. O ambiente da Hekima fomenta muito essa troca de conhecimento e o crescimento geral da equipe.

Hekima: Ainda falando em estudos, a sua dissertação de mestrado te levou para bem longe…

Raphael: Verdade. Em meu trabalho (clique aqui para acessá-lo na íntegra), propus melhorar um modelo de random forests (conjuntos de árvores de decisão, muito bem explicados pelo próprio Raphael em seu blog pessoal). Além disso, eu também propus uma forma de agregar outros modelos baseados em random forests, de forma a melhorar ainda mais a capacidade de predição no contexto de classificação textual. Eu obtive bons resultados, consegui melhorar o estado da arte da metodologia.

Isso me rendeu a publicação no SIGIR, que é um simpósio de recuperação de informação, um dos congressos mais importantes nessa área. Nesse ano ele ocorreu em Tóquio, no Japão, e eu tive a oportunidade de participar para apresentar o meu trabalho, compartilhar com a comunidade de recuperação de informação. Foi uma experiência sensacional.

Hekima: Quais dicas você dá para quem deseja se tornar um cientista de dados?

Raphael: Primeiramente, ter muita curiosidade e estudar muito. Hoje em dia, tem aparecido muito material sobre Ciência de Dados. Isso é muito bom, pois está democratizando o acesso à informação. Há vários cursos online sobre Data Science em plataformas como Udemy, Coursera e Udacity. Eu mesmo fiz vários deles.

Mestrado também é um diferencial, apesar de não ser obrigatório desde que a pessoa consiga mostrar as habilidades dela na área.

Além disso, há a questão prática. Por exemplo, fazer as competições no Kaggle (um dos principais sites de Data Science do mundo), em que você tem a oportunidade de mexer com problemas reais e uma gama bem variada de desafios, e por isso consegue entender melhor o mundo de Ciência de Dados. O pessoal da comunidade do Kaggle é muito legal, pois eles compartilham bastante informação e estão sempre dispostos a ajudar iniciantes.

Leia também: 11 bases de dados gratuitas para mineração, estudos e testes

Depois que você tiver uma base, monte um portfólio de coisas que fez na área, como implementação de algum algoritmo de aprendizado de máquina, ou então os resultados dos modelos que utilizou no Kaggle, mesmo que não tenha competido.

Resumindo, você terá de estudar. Virão problemas que não existem na literatura e você terá de “se virar nos 30”. Então, estudar sempre faz a diferença.

[contact-form-7]

The post [Hekimers #2] Raphael Campos, cientista de dados da Hekima, fala sobre o dia a dia da profissão appeared first on Big Data Business.

Read Full Article
  • Show original
  • .
  • Share
  • .
  • Favorite
  • .
  • Email
  • .
  • Add Tags 

Os varejistas brasileiros padecem de três grandes problemas: a baixa produtividade, a dificuldade de angariar novos clientes e o pouco conhecimento sobre os clientes atuais.

Para aumentar sua produtividade, o varejista precisa treinar seus colaboradores, padronizar os processos-chave, investir em tecnologia e, principalmente, revisar seus procedimentos considerando as alterações do mercado e novos métodos.

Para ganhar novos clientes, o varejista pode expandir-se (mais pontos, mais visibilidade) ou diversificar-se criando novos formatos e outras plataformas. O varejista, neste caso, ainda pode investir em marketing (publicidade) e, necessariamente, precisa apresentar-se nas mídias sociais – a forma da vez de influenciar e trazer adeptos para sua loja/marca.

Já para o correto entendimento do cliente atual, não basta saber quem ele é, mas como se comporta (suas prioridades, sua interação no ponto de venda e seu comportamento desde o planejamento até o ato da compra) e o que pretende/espera do varejista (ou seja, valores eleitos pelos clientes para considerar que aquele varejista lhe é conveniente para realizar sua compra).

Este último aspecto, correto entendimento do cliente, será tema deste novo artigo.

A Target acertou no diagnóstico de gravidez

Os varejistas estrangeiros têm usado cada vez mais recursos de Big Data para conhecer melhor e interagir com seus clientes, apresentando resultados extraordinários. Alguns desses casos merecem nosso compartilhamento para incentivar varejistas brasileiros a buscarem o mesmo caminho.

A Target, empresa americana com mais de 1800 lojas, acredita muito no poder de Big Data. Em entrevista dada ao The New York Times, um executivo da Target contou um caso muito interessante: a empresa disse ao pai de uma adolescente que ela estava grávida antes mesmo de sua filha lhe dizer. Como isso foi possível? A Target, como tantas outras, atribui a cada cliente um número de identificação, vinculado ao seu cartão de crédito, nome ou endereço de e-mail, que o torna único. Armazena o histórico de tudo que compraram além de qualquer outra informação demográfica coletada pela própria Target ou adquirida de outras fontes.

Com a ideia de identificar padrões de compra de gestantes, os profissionais da Target analisaram os dados históricos de todas as mulheres que tinham registros claros relacionados a compras para bebê ou que tinham feito inscrição em campanha anterior sobre o tema. Com o uso do Big Data Analytics, em pouco tempo a Target foi capaz de identificar padrões interessantes: loções, por exemplo. Muitas pessoas compram loção, mas uma das frentes de análise observou que as mulheres com o registro “bebê” estavam comprando grandes quantidades de loção não perfumada por volta do quarto mês de gravidez.

Em outra frente, observou-se que em algum momento das primeiras 20 semanas, mulheres grávidas compravam produtos ricos em cálcio, magnésio e zinco como forma de suplementar a alimentação. Uma terceira frente observou aspectos relativos à proximidade da chegada do bebê. Muitos clientes compram sabão e bolas de algodão. Contudo, quando alguém começa a comprar muito sabão, sacos grandes de bolas de algodão e desinfetantes para mãos e toalhas umedecidas, tudo indica que estão se preparando para a chegada da criança em breve.

Enfim, à medida que os analistas da Target faziam suas descobertas por meio das ferramentas de Big Data, os mesmos as disponibilizavam, sendo possível correlacionar os padrões. A equipe da Target identificou cerca de 25 produtos que, quando analisados em conjunto, permitiam atribuir a cada comprador uma pontuação de “previsão de gravidez”. Mais importante: era possível também estimar a data do nascimento com uma pequena margem de erro. De posse destes padrões, a Target então passou a enviar cupons mais específicos às possíveis gestantes durante cada estágio de sua gravidez.

Foi exatamente essa precisão e segmentação que fez com que um pai de uma adolescente descobrisse a gravidez de sua filha antes de ela lhe contar. De acordo com a história relatada, um senhor irritado ligou para o SAC de uma loja da Target, exigindo falar com um gerente: “Minha filha recebeu isso no correio!”, disse ele. “Ela ainda está no ensino médio, e vocês estão enviando cupons para roupas de bebê e berços. Vocês estão tentando incentivá-la a engravidar?”. O atendente do SAC não tinha idéia do que o senhor estava falando, mas pensou: “com certeza os cupons foram dirigidos à filha e continham propagandas para roupas de maternidade, móveis de berçário e fotos de crianças sorridentes”. O atendente então pediu desculpas.

Como praxe, alguns dias depois, o próprio atendente ligou para o senhor com o intuito de desculpar-se novamente. Ao atender ao telefone o pai da adolescente, envergonhado, disse: “Eu conversei com minha filha. Algo aconteceu em minha casa que eu desconhecia completamente. Ela está grávida com previsão para agosto. Quem deve desculpas sou eu e não a Target.”

A CVS e a prescrição de medicamentos

Outra empresa que faz excelente uso de Big Data é a CVS. Uma das maiores farmacêuticas dos EUA, a companhia tem aproximadamente 9600 lojas localizadas em 49 dos 50 estados americanos, e seu programa de fidelidade ExtraCare possui mais de 70 milhões de titulares. 70% do portfólio da CVS é composto por produtos farmacêuticos, o que significa que a empresa deve, constantemente, incentivar as pessoas a tomarem seus medicamentos se quiser maximizar sua receita.

Debruçada sobre a pergunta de como fazer com que os clientes continuem comprando os medicamentos prescritos, a equipe de analistas da CVS descobriu padrões interessantes. Juntando as informações da base de titulares da companhia com informações da Caremark, que rastreia clientes e seu comportamento de compra de produtos prescritos em qualquer estabelecimento (e não apenas nas lojas da marca), foi possível traçar um perfil mais profundo dos clientes.

A CVS descobriu, por exemplo, que um terço de seus consumidores parou de tomar medicamentos prescritos após um mês e que metade parou após um ano. Agravante: eram compradores de medicamentos para tratamento de doenças crônicas que devem ser tomados por, pelo menos, dois anos.

Para diminuir a desistência de clientes e, consequentemente, aumentar sua receita, a CVS iniciou um programa automatizado de textos, e-mails e telefonemas para lembrar as pessoas da necessidade da compra e uso recorrente dos medicamentos receitados.

A empresa também adicionou um alerta aos perfis de consumidores e os enviou para as lojas. Com essa nova informação, os farmacêuticos passaram a abordar os clientes quando estavam dentro do estabelecimento comprando outro tipo de produto. Perguntavam-lhes se gostariam de adquirir os medicamentos prescritos. Para auxiliar na persuasão, por exemplo, os farmacêuticos passaram a alertar sobre os efeitos colaterais dos medicamentos e, ao mesmo tempo, insistiram na importância da continuidade do tratamento. A satisfação de seus clientes aumentou, bem como suas receitas.

Netflix e “House of Cards”

Por fim, o caso da Netflix. Como muitos de nós sabemos, a Netflix é exímia consumidora de Big Data. Seus executivos queriam criar e vender as primeiras séries de TV, com base em dados de clientes, na história. Queriam construir algo de sucesso antes mesmo de produzirem.

Para isso, a empresa observou 20 milhões de clientes, coletando meticulosamente todos os dados criados por eles. Quantos usuários pausaram um filme em um determinado ponto? Quais os diálogos irrelevantes? Quais as cenas que eram revistas? Estas milhares de tags – ou descritores de metadados inseridos por telespectadores – descreveram suas preferências: a ação, o tom e o gênero, entre muitas outras coisas.

Toda essa informação processada permitiu que a empresa criasse produtos completos. “House of Cards”, por exemplo, uma série polícia e sucesso de audiência, contou com a combinação, segundo a própria Netflix, de três bem sucedidas avaliações do público: David Fincher, diretor de “The Social Network”, Kevin Spacey, ator, e a própria versão britânica de “House of Cards”. Com esses três pilares, a Netflix conseguiu encontrar uma correlação que sugeria a compra dos direitos da série e a contratação dos dois figurões.

Leia também: Big Data e Netflix: uma parceria de sucesso

Conclusão

Não basta saber quem é seu cliente. É preciso saber como ele se comporta e o que espera da sua empresa. Alguns varejistas brasileiros já iniciaram esforços na tentativa de identificar padrões de comportamento. Estão centrados ainda na coleta destas informações. O próximo passo precisa ser a aplicação de inteligência aos dados.

Sobre o autor:

Leonardo Pellegrino é executivo de varejo e consultor de empresas com passagem por GPA (Pão de Açúcar), Dia% Group, Lojas Marisa, Grupo Multiformato e Ernest & Young. Economista e mestre em ciência da informação pela UFMG. Especialista em gestão e uso competitivo da informação. Participante ativo em projetos de inovação que unem varejo e Big Data Analytics.

[contact-form-7]

The post Quem é seu cliente, como se comporta e o que quer de você appeared first on Big Data Business.

Read Full Article
  • Show original
  • .
  • Share
  • .
  • Favorite
  • .
  • Email
  • .
  • Add Tags 

Nos últimos meses, muito provavelmente você ouviu falar de fake news. Desde 2016, a utilização do termo aumentou em 365%, levando-o a ser eleito a palavra do ano de 2017 pelo Collins, tradicionalíssimo dicionário da língua inglesa.

Contudo, apesar de a expressão fake news ser cada vez vez mais difundida, seu real sentido ainda desperta dúvidas, assim como sua origem, as consequências que tem trazido e os motivos para o seu fortalecimento.

Neste artigo, explicarei de forma objetiva o que (de fato!) são fake news, além de trazer a discussão para o âmbito de Inteligência Artificial, mostrando se as tecnologias de IA têm sido efetivas no combate às notícias falsas.

O que são fake news

O The New York Times define fake news como “uma história inventada com a intenção de enganar”. Obviamente, os conceitos de falsa propaganda, boato e desinformação existem desde os primórdios da civilização, e há vários exemplos históricos de seu uso ao longo dos séculos como recurso estratégico para vencer guerras, conseguir apoio político, manipular a opinião pública, construir falsos heróis e difamar povos e religiões.

A Última Guerra Civil da República Romana, travada entre Marco Antônio e Otaviano em 32 a.C., é emblemática neste sentido. Na disputa, Otaviano (que mais tarde se tornaria o Imperador Augusto) apresentou ao Senado romano um testamento de Marco Antônio, em que ele afirmava deixar seus bens para seus filhos com Cleópatra e indicava seu desejo de ser enterrado ao lado dela em Alexandria, em vez de Roma.

A revelação enfraqueceu politicamente Marco Antônio e deu forças a Otaviano, que posteriormente saiu vencedor da guerra. O detalhe nisso tudo é que há grandes indícios de que o testamento de Marco Antônio, peça fundamental no andamento da disputa, foi forjado por Otaviano.

Os séculos passaram e, com o advento da internet e a popularização das redes sociais, a utilização de fake news para atender os mais diferentes propósitos “explodiu”. Antes da existência da rede mundial de computadores, a propagação da informação (e da desinformação) era muito mais cara e demorada; após seu surgimento, estas barreiras foram mitigadas ou eliminadas, possibilitando a livre criação e disseminação em larga escala de qualquer tipo de conteúdo.

Influência nas eleições norte-americanas e “trotes” sobre tiroteio em Las Vegas

Grande parte do aumento da utilização do termo fake news, apontado no início do artigo, pode ser creditado ao presidente dos Estados Unidos, Donald Trump. Ele começou a utilizar com frequência a infame expressão no início de sua campanha presidencial, em 2015 – e chegou a reivindicar para si a criação do termo –, para atacar rivais políticos e grandes veículos de imprensa dos EUA críticos a ele, como CNN, The New York Times e The Washington Post.

Ironicamente, as fake news que o atual presidente dos Estados Unidos tanto critica foram apontadas como um elemento inesperado que pesou para que ele vencesse a corrida eleitoral de 2016. Como mostrado nesta notícia do jornal Nexo, dois professores de renomadas universidades norte-americanas realizaram um estudo que aponta que falsas histórias pró-Trump foram cerca de 22 milhões de vezes mais compartilhadas do que aquelas favoráveis a Hillary Clinton, sua rival nas eleições presidenciais. Inclusive, grande parte dessas fake news a favor de Trump foram produzidas por adolescentes de uma pequena cidade da Macedônia que ganharam muito dinheiro fazendo isso, em uma história que por si só já se parece com uma notícia falsa.

Outro caso que teve desdobramentos relacionados às fake news foi o tiroteio em Las Vegas, Estados Unidos, ocorrido em outubro deste ano e que resultou em 59 mortos e mais de 500 feridos. Aparentemente, nem mesmo as vidas perdidas e o fato de ter sido o pior ataque a tiros da história do país comoveu os “produtores” de notícias falsas, que espalharam centenas de histórias inventadas sobre o autor dos disparos e até sobre as vítimas, dificultando o acesso a informações factuais acerca do ocorrido.

Eleições brasileiras sob risco

O Brasil não está imune às fake news. Na verdade, até pelo exemplo do pleito norte-americano de 2016, já há uma forte preocupação em relação ao impacto que a disseminação de notícias falsas poderá causar às eleições nacionais de 2018.

Em uma ação que tem causado polêmica, o presidente do Tribunal Superior Eleitoral (TSE), ministro Gilmar Mendes, está articulando a criação de um comitê que contará com a participação do Exército, da Agência Brasileira de Inteligência (Abin) e da Polícia Federal (PF) para combater a proliferação das fake news nas eleições.

Para Heinar Maracy, colaborador da Revista HSM que tem pesquisado a fundo a ação e consequências das notícias falsas, as eleições brasileiras serão o “festival das fake news”. Segundo Maracy, este é um tema muito preocupante, e é essencial que haja uma campanha de conscientização para alertar a população brasileira sobre as matérias e dados manipulados que prometem infestar a internet. “Facebook e as demais redes sociais deveriam encabeçar essa iniciativa e ser mais firmes no combate às fake news, afinal grande parte desses conteúdos são veiculados por meio delas”, conclui.

Agências de checagem de fatos

É essencial citar a atuação das agências de checagem de fatos, ou fact-checking, no Brasil, com o objetivo de tentar dirimir o impacto causado pelas fake news.

Como definido pela Aos Fatos, primeira plataforma brasileira a checar sistematicamente o discurso público, “checagem de fatos é um método jornalístico por meio do qual é possível certificar se a informação apurada foi obtida por meio de fontes confiáveis e, então, avaliar se é verdadeira ou falsa, se é sustentável ou não”.

Além da Aos Fatos, temos outros ótimos exemplos de projetos brasileiros de checagem, como o Truco, iniciativa da Agência Pública, e a Lupa, ligada à revista Piauí. Nas eleições que se avizinham, o trabalho dessas agências será fundamental para a correta disseminação da informação.

Inteligência Artificial como ferramenta de checagem de fatos

Falando em disseminação de fake news em redes sociais, tanto nas eleições presidenciais norte-americanas quanto no tiroteio em Las Vegas, houve duras críticas a elas e a sites de busca – em especial, a Facebook e Google.

Embora seja difícil mensurar o real peso das fake news no pleito estadunidense, é fato que milhares de notícias falsas, que tinham por objetivo influenciar eleitores, circularam livremente, sem filtros, critérios ou pudor pelo Facebook, sendo lidas e compartilhadas milhões de vezes na rede de Mark Zuckerberg.

Uma análise do BuzzFeed News, inclusive, mostra que as fake news geraram mais engajamento entre os usuários da rede social do que as principais matérias de grandes veículos de mídia. O próprio Zuckerberg, apesar de a princípio ter chamado de “louca” a ideia de que a proliferação desenfreada de desinformação no Facebook influenciou o resultado das eleições, voltou atrás e disse ter se arrependido do comentário. “Esse é um assunto importante demais para ser desprezado”, afirmou recentemente.

Como ficou comprovado nas eleições norte-americanas, o potencial de danos que podem ser causados pelas fake news em uma rede de mais de 2 bilhões de usuários e de trilhões de dados gerados por eles levou o Facebook a investir mais seriamente em Inteligência Artificial, a fim de encontrar e eliminar conteúdos falsos.

Como mostrado em reportagem do The Wall Street Journal, a empresa tem utilizado machine learning (entenda melhor o que é machine learning neste artigo escrito por Gustavo Penha, cientista de dados da Hekima) para treinar e ensinar seu sistema a identificar fake news baseado nos tipos de artigos que as pessoas estão sinalizando como desinformação, além de detectar palavras ou padrões de palavras que podem indicar histórias inventadas. Segundo Mark Zuckerberg, o mais importante que o Facebook pode fazer com IA é melhorar sua habilidade de classificar desinformação. “Isto significa melhores sistemas técnicos para detectar o que as pessoas irão sinalizar como falso antes de elas mesmas o fazerem”, completa.

Contudo, após o atentado em Las Vegas, ficou claro que a utilização de Inteligência Artificial pelo Facebook para detecção de fake news ainda precisa de aprimoramentos. Como mostrado pelo The New York Times, uma página oficial de checagem de notícias pertencente à rede social exibiu uma postagem de um blog que identificava incorretamente o atirador, além de descrevê-lo como um “liberal anti-Trump”.

Outra gafe que passou despercebida pelo Facebook e, inclusive, chegou aos ‘trending topics’, foi uma reportagem publicada pela Sputnik, agência de notícias do governo russo, que afirmava que o FBI havia ligado o autor dos disparos ao Estado Islâmico.

Os algoritmos do Google também foram enganados pelas fake news relacionadas ao tiroteio. Uma postagem feita no 4chan (um grande fórum online dividido por temas diversos, sendo vários deles bem polêmicos), em que os usuários identificavam de forma equivocada o atirador, foi selecionada pelo buscador para entrar na sua lista de ‘top stories’, e permaneceu por horas como o principal resultado de busca para o nome do (erroneamente) acusado.

Sobre o episódio, um porta-voz da Google Inc. disse que as notícias são escolhidas para ‘top stories’ a partir de uma combinação entre grau de autoridade e o “quão frescas” elas são. Uma vez que o post do 4chan não tinha qualquer autoridade, ele deve ter sido considerado, pelos algoritmos, mais fresco que o atum vendido nos leilões de Tóquio super fresco.

Um mundo a ser analisado

E qual o motivo para as tecnologias de Inteligência Artificial ainda não terem o aproveitamento desejável na identificação de fake news?

As análises de texto por meio de IA têm como base, majoritariamente, Processamento de Linguagem Natural (PLN). PLN é um componente da Inteligência Artificial que refere-se à habilidade de um software analisar, entender e derivar sentido à linguagem humana (esteja ela como fala, texto ou outros formatos) de maneira inteligente e útil.

Por meio do PLN, desenvolvedores conseguem executar tarefas como resumo automático e tradução de uma língua para outra (o Google Tradutor, por exemplo, utiliza PLN). “Nestes tipos de análise, tudo (todas as informações) que as ferramentas de machine learning precisam saber já estão na sentença processada”, como afirma Ian Goodfellow, pesquisador da OpenAI. Por isso a margem de acerto é tão grande.

Contudo, identificar autorias de posts, rastrear informações através de centenas de fontes e julgar o grau de veracidade de notícias baseando-se em uma diversidade de ideias e conceitos exige um entendimento holístico do mundo que vai muito além de palavras e semântica.

Richard Socher, diretor de pesquisa da Salesforce – empresa de software de CRM que abriu recentemente um setor de AI –, afirma que é “incrivelmente difícil”, para as máquinas, “compreender o total estado do mundo para identificar se um fato é verdadeiro ou falso”. Ele acrescenta: “Mesmo se tivéssemos uma maneira perfeita de englobar e codificar todo o conhecimento do mundo, o sentido das notícias (existirem) é justamente adicionar (novas informações) a este conhecimento”.

Isto significa que o fator “novidade” das notícias dificulta a checagem das mesmas pelas ferramentas de Inteligência Artificial, uma vez que as informações necessárias para verificar a procedência de um novo conteúdo podem simplesmente estar sendo apresentadas pela primeira vez por esse mesmo conteúdo que precisa de verificação, e ainda não estarem disponíveis (ou sequer existirem) para consulta em outras fontes.

Panorama atual e futuro

As ferramentas de Inteligência Artificial ainda têm muito a evoluir antes de se tornarem realmente efetivas no combate às fake news. Pelo atual estado em que se encontra a tecnologia, o ideal é que ela seja considerada (e utilizada como) um instrumento auxiliar à checagem de fatos feita por seres humanos, e não a panaceia contra as notícias falsas.

Para os próximos anos, a esperança é de que a IA evolua a ponto de que seja seguro confiar a ela a difícil tarefa de frear o perigoso avanço das fake news.

Contudo, independentemente de as novas tecnologias conseguirem fazer isso ou não, em tempos de produção e compartilhamento em massa de todo tipo de conteúdo é essencial que as pessoas desenvolvam cada vez mais o senso crítico e saibam analisar, por conta própria, o que é factual e o que é manipulação.

Finalizando, aproveito para falar do hackathon feito em conjunto entre a Hekima e nossos parceiros da Tera! O hackathon será o evento de formatura dos alunos do curso de Data Science da Tera. Será uma maratona intensa juntando jovens cientistas de dados, mentores e especialistas em Inteligência Artificial e Big Data, além de jornalistas e interessados no tema fake news. Ao longo desta maratona, todos irão focar em construir soluções para combater a identificação e proliferação de fake news no país para as eleições de 2018.

Para mais informações, fale com a equipe da Tera: somostera.com/.

Sobre o autor:

Juliano é especialista em Marketing e trabalha na Hekima. É apaixonado por leitura e escrita e, nas horas vagas, não dispensa uma cerveja ou uma partida de Fifa (quiçá ambas as coisas juntas).

[contact-form-7]

The post Inteligência Artificial é efetiva no combate às fake news? appeared first on Big Data Business.

Read Full Article
  • Show original
  • .
  • Share
  • .
  • Favorite
  • .
  • Email
  • .
  • Add Tags 

Um dos pilares da Hekima responde pelo nome de Ivan Moura Campos. Inspiração diária para sócios e colaboradores, o co-founder e “Senior Nerd” (como ele mesmo se chama) da empresa dá o exemplo de como ser um fora de série e ir além de todas as expectativas, seja no meio acadêmico, seja na iniciativa privada.

Caso você (ainda) não conheça nosso Mestre Yoda, saiba que, entre seus marcos profissionais, estão a criação do Departamento de Ciência da Computação da UFMG, a atuação como Secretário de Ciência e Tecnologia do Estado de Minas Gerais e a fundação da Akwan, empresa especializada em ferramentas de busca comprada pela Google em 2005.

Por isso, é mais do que justo que Ivan tenha recebido, na última sexta-feira (01/12), o título de Professor Emérito da UFMG.

Quer conhecer o início do caminho traçado pelo Professor Ivan Moura Campos até mais essa honraria em sua destacada carreira e se inspirar? Então leia esse artigo, padawan!

Trajetória de sucesso

Professor Ivan iniciou sua carreira docente em 1968 no Departamento de Engenharia Mecânica da UFMG, em uma época em que a Computação Eletrônica chegava ao Brasil, e tornou-se um dos primeiros docentes da UFMG a dominar as técnicas fundamentais de programação de computadores. “Quando me formei em Engenharia, já estava apaixonado pela Computação e tinha como ideia trabalhar na área”, conta Ivan.

Sua atuação de destaque permitiu-lhe convencer a Reitoria a introduzir o ensino de programação de computadores nos currículos dos cursos da área de exatas da Universidade, e foi o primeiro doutor em Computação da UFMG, formado pela UCLA (Estados Unidos), e mentor da implementação de um programa de qualificação em nível de mestrado e doutorado dos pesquisadores do CECOM.

Participou das iniciativas para criar o Departamento de Ciência da Computação, tendo sido seu segundo chefe, e foi responsável pela criação da área de Engenharia de Software no CPGCC, do qual foi coordenador de Pós-Graduação. Exerceu cargos de Pró-Reitor da UFMG e Diretor Executivo da FUNDEP. Foi sócio-fundador das empresas Miner e Akwan, sucessos de empreendedorismo e inovação no mercado de alta tecnologia no Brasil.

Extramuros, foi Secretário de Ciência e Tecnologia do Estado de Minas Gerais, Diretor de Programas Especiais do CNPq, Secretário de Política de Informática e Automação do Ministério da Ciência e Tecnologia. Presidiu a Área de Computação na Capes e do Comitê Assessor do CNPq. No exterior, foi Diretor da Internet Corporation for Assigned Names and Numbers (ICANN), que coordena o sistema de atribuição de nomes a domínios da Internet.

Mesmo após ter se aposentado da UFMG em 1994, continuou e continua promovendo o nome da universidade no Brasil e no exterior, nos ambientes acadêmicos, governamentais, não-governamentais e empresariais.

São várias centenas de palestras, artigos e entrevistas, sobre temas que variam de políticas públicas a política industrial, passando por inovação tecnológica e desenvolvimento econômico, até orientação de jovens empreendedores desenvolvedores de produtos que utilizam tecnologias da informação e comunicação.

Sua personalidade ética, colaboradora, inovadora e coerente com a abordagem de Pasteur, sempre buscando o uso das tecnologias para desenvolvimento da sociedade, a produção de produtos de interesse real e geradores de riqueza, renderam-lhe o reconhecimento e respeito das várias comunidades onde atuou, expressos em mais de uma dezena de homenagens, prêmios, medalhas e comendas.

Currículo do Professor Ivan Moura Campos

O professor Ivan Moura Campos possui graduação em Engenharia Mecânica pela Escola de Engenharia da UFMG, 1967; Mestrado em Ciências em Informática pela Pontifícia Universidade Católica do Rio de Janeiro, 1971; Ph.D. em Ciência da Computação pela Universidade da Califórnia (UCLA), Los Angeles, EUA, 1977.

Na UFMG, foi professor Auxiliar nos departamentos de Engenharia Mecânica, 1968-1968, e de Matemática, 1969-1971; Assistente nos departamentos de Matemática, 1971-1972, de Ciência da Computação e Estatística, 1973-1976, e de Ciência da Computação (DCC), 1976-1977; Adjunto no DCC, 1978-1983, e Titular no DCC, 1983-1994, quando fez jus à aposentadoria plena.

Além de professor e orientador de inúmeros alunos, alguns dos quais se tornaram professores do DCC, foi Chefe da Divisão de Sistemas do Centro de Computação (CECOM), 1971-1972 e em 1978; Coordenador de Pesquisa do DCC, 1978-1979; Coordenador do Curso de Pós-Graduação em Ciência da Computação, 1979-1981; Coordenador do Curso de Extensão do ICEx, 1980-1981; Chefe do DCC, 1981-1983; Vice-Diretor do Laboratório de Computação Científica da UFMG (LCC), 1984-1985; Pró-Reitor de Pós-Graduação da UFMG, 1986-1987; Diretor Executivo da Fundação para Desenvolvimento da Pesquisa (FUNDEP), 1987-1990; Assessor Especial da Reitoria da UFMG, 1998-1999; Consultor do Centro de Estudos de Criminalidade e Segurança Pública da UFMG (CRISP), 2003-2004.

Na PUC-MG, foi Professor Assistente do Departamento de Engenharia Mecânica, 1968-1968. Na PUC-RJ, foi Professor Auxiliar de Ensino e Pesquisa do Departamento de Informática, 1970-1970. Na UCLA, foi Postgraduate Research Engineer, 1973-1977. Na University of Waterloo, Canadá, foi Visiting Professor, Department of Computer Science, de janeiro a março de 1990.

No governo federal, foi Diretor de Programas Especiais do CNPq, 1991-1993; Secretário de Política de Informática e Automação do Ministério da Ciência e Tecnologia, 1993-1997. No governo do estado de Minas Gerais, foi Secretário de Ciência e Tecnologia, 1997-1998; foi consultor da Secretaria de Saúde (2004-2011) e da Secretaria de Educação (em períodos variados entre 2003 e 2012).

Entre 1978 e 2014, participou como membro, coordenador ou presidente, de mais de uma dezena de conselhos consultivos e deliberativos, vinculados a instituições governamentais, nacionais ou estaduais, dentre as quais ANATEL, Centro Tecnológico para Informática (CTI/SEI) do Ministério de Ciência e Tecnologia, CAPES, CNPq, FAPEMIG, Secretaria de Estado de Planejamento de Minas Gerais (SEPLAG-MG), Secretaria de Cultura de MG.

Por exemplo, foi Membro e Coordenador da Comissão de Coordenadores de Comitês Assessores do CNPq (CCCA), 1983-1986; Membro e Coordenador do Comitê Assessor de Ciência da Computação do CNPq, 1983-1986; Presidente do Comitê de Consultores Científicos na Área de Informática da CAPES, 1991-1992; Membro e Presidente da Câmara de Tecnologia da Fundação de Amparo à Pesquisa do Estado de Minas Gerais (FAPEMIG), 1997-1998; Membro do Comitê sobre Infraestrutura Nacional de Informações, (C-INI da

ANATEL), 1999-2000; Consultor da International Communications Union (ITU), prestando consultoria junto ao Ministério das Comunicações do Brasil, 2001-2002; Membro da Comissão Rede por Uma Gestão Pública Inovadora da SEPLAG-MG, 2010-2014.

No mundo ONG internacional, desde 2012, é membro da comissão internacional que julga os candidatos ao Marconi Award e seleciona a lista tríplice a ser encaminhada ao board da Marconi Society para indicação final do premiado. Este prêmio é dado anualmente a indivíduos que tenham contribuído significativamente para o avanço das comunicações em benefício da humanidade via descobertas científicas e tecnológicas.

Ainda no mundo ONG internacional, foi o primeiro brasileiro Diretor da Internet Corporation for Assigned Names and Numbers (ICANN), entidade que coordena o Domain Name System da Internet em escala mundial, 2000-2004.

No mundo ONG nacional, foi um dos criadores do Comitê Gestor da Internet no Brasil (CGI-BR) e seu Coordenador por duas vezes: 1995-1997 e 1999-2003. Entre 2000 e 2014, atuou também como membro de diversos conselhos consultivos de instituições como Associação Comercial de Minas Gerais, Faculdades Pitágoras, Instituto Hartmann Regueira e World Trade Center de Belo Horizonte.

Atualmente é membro de Conselho Consultivo do Inhotim (desde 2007); membro do Conselho Jedi – Acelera-MGTI da Fumsoft, integrante do Programa Start-up Brasil que auxilia o desenvolvimento de empresas nascentes brasileiras (desde 2013). Também é membro do Conselho Consultivo Técnico da empresa Samba Tech: Online Video Solutions, (desde 2009).

Como empresário, foi sócio da Miner Technology Group, empresa vendida para o portal UOL em 1999, e co-founder da Akwan S.A., empresa especializada em ferramentas de busca e gestão da informação na Web, vendida para a Google Inc. em 2005. Como afirma Ivan, “a compra da Akwan foi um fator determinante para que a Google escolhesse Belo Horizonte para se instalar no Brasil”.

Atualmente é co-founder, Chairman of the Board e Senior Nerd da Hekima. A Hekima tem como sócios fundadores e desenvolvedores, sete ex-alunos do DCC que, em 2009, ao se graduarem no Bacharelado, procuraram o Professor Ivan Moura Campos para que ele os ajudasse a empreender. Após vários anos de pesquisa e desenvolvimento nas áreas de redes sociais, infraestrutura de cloud computing, data engineering, data analytics, artificial intelligence e big data, e de muito aprendizado em metodologias de desenvolvimento, marketing, gestão e vendas, a empresa já é referência em sua área de atuação.

Ivan Moura Campos, sócio-fundador, “Senior Nerd” e “Mestre Yoda” da Hekima

Leia também: Um conto de dados: a história da Hekima

Seu perfil ativo, colaborativo, criativo e inovador sempre contribuiu para mudanças significativas e duradouras nas áreas onde atuou. Três exemplos são:

  • Em 1996, estava em discussão o futuro da Internet acadêmica no mundo. Durante o Workshop on Future of Networking for Research and Education, em Cheyenne Mountain, Colorado Springs, EUA, o Professor Ivan Moura Campos propôs o modelo que se tornou a marca da Internet 2: a Campos’ Spiral. Este modelo é reconhecido mundialmente como tendo sido instrumental para o planejamento estratégico da Internet 2 e é ainda hoje citado por formadores de opinião em Tecnologias da Informação para explicar o processo permanentemente evolutivo da Internet.
  • Em 1995, o Professor Ivan, à época Secretário de Política de Informática e Automação do Ministério de Ciência e Tecnologia, foi um dos principais líderes e articuladores para a abertura da Internet no Brasil. Existia apenas a Internet acadêmica e o sistema de telecomunicações (Telebrás, composto pelas teles estaduais e a Embratel) pretendia ser o único provedor de acesso para atender à comunidade não acadêmica. A Embratel já havia aberto inscrições de empresas para futuro atendimento.

Após muita articulação política, foi assinada uma portaria interministerial entre o Ministério das Comunicações e o Ministério da Ciência e Tecnologia, segundo a qual a Internet passou a ser vista como “serviço de valor adicionado e não de telecomunicações”. Mais que isto, as empresas de telecomunicações estavam proibidas de prover este tipo de serviço para que não concorressem com as centenas de empresas provedoras de acesso que apareceriam e apareceram Brasil afora. Este movimento foi decisivo para a rápida evolução da Internet não acadêmica no Brasil.

O modelo adotado no Brasil foi apresentado em diversas conferências e workshops promovidos pelo World Bank, e se tornou um paradigma de estratégia de sucesso para implantação da Internet nos países em desenvolvimento.

O reconhecimento da relevância de sua atuação também veio expresso em homenagens como: “As 20 Personalidades Mais Influentes na Internet do Brasil em 1999”, Revista Internet World; “Os 10 mais dos 10 anos de CONIP”, na categoria Personalidades – retrospectiva de Informática Pública no período de 1995 a 2005; “Pais da Internet no Brasil”, Campus Party, 2008; “Diploma 20 anos .br”, CGI.BR, 2009; “20 Anos de Internet no Brasil”, Homenagem Especial pela Relevante Contribuição para a Implantação da Internet no Brasil, RNP, 2012.

  • Em 1972, os professores Wilson de Pádua Paula Filho e Ivan Moura Campos lideraram o grupo de professores que criou o Departamento de Ciências da Computação e Estatística da UFMG, uma das sementes para a criação do DCC.
“Pivotadas pessoais”

Você conhece o termo “pivotar”? Derivado do inglês to pivot (“mudar” ou “girar”), ele refere-se a uma mudança radical no rumo de um negócio.

Pois o Professor Ivan Moura Campos conta que três “pivotadas pessoais” foram fundamentais na definição de sua trajetória e verdadeiras guinadas em sua carreira.

“Assim que me formei, fui trabalhar em uma grande siderúrgica como engenheiro. Não estava nem há um mês lá, quando fui convidado por um professor para dar aulas na UFMG e na PUC. Topei na hora! Essa foi minha primeira grande mudança. A segunda delas ocorreu quando, no Doutorado, as circunstâncias me levaram a participar da gestão da universidade, além de me tornar formulador de políticas públicas e trabalhar no governo e em ONGs. Por último, a volta ao mercado, criando startups e tecnologias de ponta fora da academia. Foram todas experiências enriquecedoras e marcantes”, conclui Ivan.

[contact-form-7]

The post Mestre Yoda brasileiro: Ivan Moura Campos, co-founder da Hekima, recebe título de Professor Emérito da UFMG appeared first on Big Data Business.

Read Full Article

Read for later

Articles marked as Favorite are saved for later viewing.
close
  • Show original
  • .
  • Share
  • .
  • Favorite
  • .
  • Email
  • .
  • Add Tags 

Separate tags by commas
To access this feature, please upgrade your account.
Start your free month
Free Preview