Important:

Quaisquer soluções e/ou desenvolvimento de aplicações pessoais, ou da empresa, que não constem neste Blog podem ser tratados como consultoria freelance.

Views

VBA Tips - GetComputerName - API - Obtendo o nome do Computador através de API

Retorne o nome do computador usando uma API.


Private Declare Function GetComputerName Lib "kernel32" Alias _
"GetComputerNameA" (ByVal lpBuffer As String, nSize As Long) As Long






Deixe os seus comentários! Envie este artigo, divulgue este link na sua rede social...


Tags: VBA, Tips, 
API, kernel32.dll, Get, computer, name, 



VBA Tips - GetUserName - API - Obtendo o nome do Usuário com API

Retorne o nome do usuário usando uma API.


Private Declare Function GetUserName Lib "advapi32.dll" Alias _
"GetUserNameA" (ByVal lpBuffer As String, nSize As Long) As Long






Deixe os seus comentários! Envie este artigo, divulgue este link na sua rede social...


Tags: VBA, Tips, 
GetUserName, API, nome, usuário, user, name, username, advapi32.dll, 



VBA Tips - SendLotusEmails - Envie e-mail com o Lotus Notes

Envie e-mails através do Lotus Notes. Requer as Classes de Automação do Lotus (Lotus Automation Classes - notes32.tlb).

   ' Attribute VB_Name = "modLotus"    ' This public sub will send a mail and attachment if neccessary to the recipient including the body text.  ' Requires that notes client is installed on the system.    Public Sub SendLotusEMail(Subject As String, Attachment As String, recipient As String, bodytext As String, saveit As Boolean)        ' Set up the objects required for Automation into lotus notes            Dim MailDB As Object ' The mail database            Dim UserName As String ' The current users notes name            Dim MailDBName As String ' THe current users notes mail database name            Dim MailDoc As Object ' The mail document itself            Dim AttachME As Object ' The attachment richtextfile object            Dim LotusSession As Object ' The notes session            Dim EmbedObj As Object ' The embedded object (Attachment)            ' Start a session to notes            Set LotusSession = CreateObject("Notes.NotesSession")            ' Get the sessions username and then calculate the mail file name            ' You may or may not need this as for MailDBname with some systems you            ' can pass an empty string            UserName = LotusSession.UserName            MailDBName = Left$(UserName, 1) & Right$(UserName, (Len(UserName) - InStr(1, UserName, " "))) & ".nsf"            ' Open the mail database in notes            Set MailDB = LotusSession.GetDatabase("", MailDBName)              If MailDB.isOpen = True Then                        ' Already open for mail              Else                      MailDB.OPENMAIL              End If            ' Set up the new mail document            Set MailDoc = MailDB.CreateDocument            MailDoc.Form = "Memo"            MailDoc.sendto = recipient            MailDoc.Subject = Subject            MailDoc.body = bodytext            MailDoc.SaveMessageOnSend = saveit            ' Set up the embedded object and attachment and attach it            If Attachment <> "" Then                    Set AttachME = MailDoc.CreateRichTextItem("Attachment")                    Set EmbedObj = AttachME.EmbedObject(1454, "", Attachment, "Attachment")                    MailDoc.CreateRichTextItem ("Attachment")            End If            ' Send the document            MailDoc.PostedDate = Now() 'Gets the mail to appear in the sent items folder            MailDoc.Send 0, recipient                  ' Clean Up            Set MailDB = Nothing            Set MailDoc = Nothing            Set AttachME = Nothing            Set LotusSession = Nothing            Set EmbedObj = Nothing    End Sub

Deixe os seus comentários! Envie este artigo, divulgue este link na sua rede social...


Tags: VBA, Lotus, Lotus Notes, e-mails, notes32.tlb, send,



VBA Tips - Launch IE - Carregando o Internet Explorer com uma página




Abra uma nova janela com o Internet Explorer e opcionalmente carregue um endereço.
  Sub LaunchIE()
    Dim objIE As InternetExplorer            Set objIE = New InternetExplorer            objIE.Visible = True            objIE.Navigate "http://inanyplace.blogspot.com"            Do            Loop Until objIE.ReadyState = READYSTATE_COMPLETE            objIE.ExecWB OLECMDID_PRINT, OLECMDEXECOPT_PROMPTUSER    End Sub
Deixe os seus comentários! Envie este artigo, divulgue este link na sua rede social...


Tags: VBA, Tips, Internet, IE Explorer, Microsoft,



VBA Tips - GetComputerName - Sabendo o nome do computador




Tenha acesso ao nome do computador em uso. Essa funcionalidade pode habilitar a sua aplicação para uma conexão automática.
  Private Declare Function GetComputerName Lib "kernel32" Alias _      "GetComputerNameA" (ByVal lpBuffer As String, nSize As Long) As Long
Deixe os seus comentários! Envie este artigo, divulgue este link na sua rede social...


Tags: VBA, Tips, API, DLL, kernel32.dll, GetComputerName, Get, Computer, Name, 



VBA Tips - GetUser - Saiba o nome do usuários do Windows



Saiba o nome do usuário que está usando a sua aplicação.

Podemos usar essa funcionalidade para uma conexão automática, ou solicitação de identificação para acesso. Inclui API.
  Private Declare Function GetUserName Lib "advapi32.dll" Alias _      "GetUserNameA" (ByVal lpBuffer As String, nSize As Long) As Long        Function GetUser() As String              Dim UserName As String ' receives name of the user                Dim slength As Long ' length of the string            Dim RetVal As Long ' return value              UserName = Space(255) ' room for 255 characters              slength = 255 ' initialize the size of the string              RetVal = GetUserName(UserName, slength) ' slength is now the length of the returned string              UserName = Left(UserName, slength - 1) ' extract the returned info from the buffer                User = UserName            End Function

Deixe os seus comentários! Envie este artigo, divulgue este link na sua rede social...


Tags: VBA, API, DLL, api32.dll,



DATA MINING - Está Morto?

Inline image 6

Não acho que o DATA MINING esteja morto. Antes foi renomeado como BIG DATA ou DATA SCIENCE, embora a ciência de dados vá além da mineração de dados. Talvez pouco mais de 20% do DATA SCIENCE sejam mineração de dados puro, que é a análise exploratória para detectar padrões, grupos, etc, e desenvolver soluções preditivas ou automações visuais ou sistemas automatizados, tais como detecção de fraudes, licitações automatizadas ou recomendações customizadas (músicas, livros, restaurantes, Facebook, etc...) para indivíduos visados​​.

Certamente a mineração de dados é a própria essência da DATA SCIENCE  juntamente com ARCHITECTURE / DATA WAREHOUSING / DATABASE MODELING.

SCIENCE / MINING / DATA QUALQUER-QUE-SEJA-O-NOME-PELO-QUAL-DESEJE-CHAMAR não está nem perto de morto. Na verdade, acho que está é apenas começando. 

Se não usarmos dados históricos, como poderemos prever? 

Basta usarmos os dados para tomarmos uma decisão e isso pode ser chamado de análise de dados ou de SCIENCE

Criamos dados num ritmo sem precedentes, o que irá permitir o uso mais amplo de criação e aperfeiçoamento dos modelos de dados. Estamos criando dados que nunca existiram antes, dando uma nova vida e propósito para eles.

A opinião mais popular sobre mineração de dados - construção de modelos automatizados que geram uma visão prospectiva - não está apenas longe de estar morta, mas precisa de expectativas substanciais de nivelamento dentro do contexto de grandes volumes de dados.

Quanto aos sistemas ineficientes que observamos em muitas empresas, isso deve-se ao fato destas se esforçarem na busca de respostas a partir de uma postura proativa.

Talvez a sensação de estarem sobrecarregadas com muitos dados venha do fato de que estejam fazendo as perguntas erradas. Mas se as pessoas fazendo as perguntas forem as pessoas mais experientes na organização, então estas serão mais precisas. 

Deixando de lado o significado dos termos da moda, geralmente os membros das organizações aprenderão com os seus próprios comportamentos, olhando para o passado. Uma vez que saibam o que estão fazendo, em seguida, as suas medidas podem ser criadas para monitorar as próprias práticas.

Enquanto alguém quiser encontrar uma ideia, um conceito ou uma suposição, então é lógico que a mineração de dados estará viva.


Deixe os seus comentários! Envie este artigo, divulgue este link na sua rede social...


Tags:
DATA MINING, BIG DATA,DATA SCIENCE, ARCHITECTURE, DATA WAREHOUSING, DATABASE MODELING, 


Excel Data Mining - Processando Bilhões de Linhas via Clound - New, fast Excel to process billions of rows via the cloud



Essa ideia não é nova - Uma aplicação desenvolvida no MS Excel capaz de lidar com grandes conjuntos de dados, de forma muito rápida.

Estive usando o MS Excel em 89% do tempo da minha carreira, e ele definitivamente tem algumas características muito poderosas. Provavelmente, a maior delas é a sua capacidade de prover modelos de design, propiciar testes e atualização em tempo real. Sim, basta alterarmos alguns poucos valores, configurados como parâmetros qual kernel do nosso modelo de análise, e todas as nossas células, em alguns casos milhares delas, e tudo o que estiver ligado a este núcleo, inclusive gráficos, serão atualizados ao mesmo tempo.

Outro recurso interessante inclue a capacidade do MS Excel de conectar-se a bancos de dados ou pela Internet (por exemplo, no Bing API) extraindo informações úteis, resumindo-as em cubos e tabelas dinâmicas. 

Embora os cubos e as tabelas dinâmicas dêem uma forte sensação de um ambiente old-fashioned de banco de dados relacional SQL, estes, em muitos contextos, continuam sendo úteis. 

Não estou muito certo no momento, de que o MS Excel possa facilmente recuperar dados através da Internet, a partir de API que não sejam da Microsoft, como por exemplo a API do Google. Deveria, mas alguns testes mostram que as próprias APIs têm limitações quanto a recuperação de dados, limitando os usuários finais, mas isso também mudará.

Hoje, a principal desvantagem é a lentidão do MS Excel.

Se classificarmos 400.000 observações (numa coluna), isso será muito rápido. Mas digamos que precisemos classificar simultaneamente duas colunas: A e B, onde B é o registro de um valor. Assim, B contém uma fórmula em cada linha. Se você for heavy user, sabe do que estou falando. Isso diminui drasticamente o tempo. O Excel é muito mais rápido para classificar uma só coluna. As fórmulas em B atualizarão corretamente todos os valores, muito rápido, e automaticamente.

Como regra geral, qualquer operação que envolva recálculo (digamos) 200.000 linhas em várias células ligadas por relações de dependência serão muito lentas se:

Uma das colunas incluir funções como VLOOKUP em cada célula.

Ordenar (SORT) ou outro processo sub-linear sendo processado.

Há uma maneira muito fácil e eficiente (mas feia) em torno disso, e estou querendo saber por que ela não está embutido de forma transparente para o usuário no MS Excel.

Por exemplo:

Substitua as fórmulas PROCV por valores hard-coded, realizando as atualizações dos valores hard-coded, e depois colocando-as de volta nas fórmulas.

Realize o SORT apenas no número mínimo de colunas, onde necessário, e atualize as células nas colunas que envolverem as fórmulas.

Pense: Por que o PROCV é tão lento?

Uso um dataset de 3.000.000 de linhas com um join em uma tabela de 200.000 linhas em Perl, e é muito rápido. No Excel, o dataset da tabela de pesquisa seria armazenado em duas pastas diferentes dentro da mesma planilha, e levaria dias se é que for possível realizar esse " join ". Talvez o Excel execute indiretamente uma junção completa exponencialmente para abrandar a operação? Eu quase nunca faço, e as pessoas quase nunca fazem uma junção completa em grandes conjuntos de dados. Certamente esta é uma área onde melhorias significativas são esperadas.

Ainda não tive chance de usar o MS Excel na nuvem, se é que isso é possível, mas isso seria uma ótima maneira de novos cálculos com velocidade em dados de processo muito maior do que 1 milhão de linhas.

A Microsoft deveria permitir que o usuário exportasse os dados em uma nuvem (Microsoft ? ) De uma forma transparente, com apenas um clique (por exemplo, basta clicar em " Export to cloud " ), e em seguida, permitir que o usuário simulasse as operações demoradas na versão local do Excel em sua área de trabalho (equivaleria a usar a planilha Excel local, como uma planilha virtual) e quando terminasse, clicaríamos em "recuperar da nuvem " e obtermos a nossa planilha atualizada.

O "recuperar da nuvem " seria:

Enviar as suas fórmulas do Excel para a nuvem,

Aplicar a fórmula para a sua versão cloud dos dados, 

E então obtemos os dados processados ​​de volta na sua planilha local.

Outro processo lento e doloroso é quando precisamos aplicar uma fórmula para uma coluna inteira com 500.000 células. Felizmente, existe um truque. Digamos que você deseje armazenar o produto de A e B na coluna C.

Em primeiro lugar, selecione toda a coluna C.

Insira a fórmula de = A1 * B1

Pressione a tecla Ctrl e a tecla Enter juntos.

Mas você pode fazer isso de modo ainda mais fácil do que isso, use algo como: 

== A1 * A1 ( fórmula com duplo igual indica que a fórmula se aplica a toda a coluna, e não apenas uma célula). 

Este é outro exemplo de como o Excel não é user-friendly. Muitas vezes, alguns caminhos tornam-se obscuros para resolvermos algo de forma eficiente. 

Tags: VBA, excel, 
data, mining, row, API


BIG DATA - Administrando a sobrecarga de dados corporativos





Ter problemas em administrar uma grande quantidade de dados antigamente restringia-se aos grandes das mídias sociais, tais como Amazon, Google, Yahoo, Facebook... Mas de uns tempos para cá, mais empresas, de todos os setores, têm demonstrado interesse em ganhar vantagem competitiva por explorar o seu BIG DATA na esperança de desenterrar qualquer informação valiosa escondida na sua própria montanha de dados.

Sim, companhias como o  Walmart e a rede de lojas de conveniência Wawa têm grandes planos para BIG DATA, e excelentes cases de onde podemos abstrair algumas ideias.

Alguns estão se aventurando na análise para atender mais rapidamente aos clientes, e acompanhar melhor o histórico de informações desses ou mesmo apresentar novos produtos ao mercado de forma mais rápida.

Qualquer negócio nessa Era da Internet, que você não faça, os seus concorrentes farão
Ashish Nadkarni

Organizações de todos os tamanhos estão sendo inundadas por dados, de fontes tanto internas quanto externas. Grande parte desses dados está sendo transmitida em tempo real – e grande parte dela é tornada obsoleta em poucos minutos, horas ou em alguns dias.

As necessidades de armazenamento resultante são especialmente problemáticas para grandes empresas onde a quantidade de dados estruturados e não estruturados cresceu em média 44% de 2010 a 2011, de acordo com o Aberdeen Group.  

Em empresas de todos os tamanhos, as necessidades de armazenamento de dados estão duplicando a cada dois anos e meio. Diferentes ferramentas são necessárias para otimizar o armazenamento de vídeo, planilhas, bancos de dados formatados e dados completamente não estruturados.

As tecnologias que podem ajudar os usuários de BIG DATA incluem a virtualização de armazenamento, a deduplicação e o armazenamento em camadas. 

O armazenamento de bancos de dados relacionais e orientado a objeto são as melhores opções para grandes usuários como cientistas, sites de mídia social e desenvolvedores. Os componentes básicos dos sistemas criados para hospedar petabytes de dados (ou mais) em um formato facilmente acessível são mais complexos do que o funcionamento interno das plataformas de armazenamento mais rotineiras. 

O que segue são alguns conselhos em relação à administração e armazenamento de BIG DATA:

Que tipo de dados você está analisando?
O tipo de armazenamento necessário depende do tipo e da quantidade de dados que analisamos. Todos os dados têm uma vida útil. Uma cotação de ação, por exemplo, só é relevante por um minuto ou dois antes de seu preço mudar. A pontuação de um jogo de baseball é solicitada por cerca de 24 horas, ou até o próximo jogo. Dados deste tipo precisam permanecer no armazenamento primário enquanto sua procura é grande e podem, depois, serem movidos para um armazenamento mais barato. Uma olhada nas tendências ao longo de vários anos reforça a ideia de que dados armazenados por longos períodos normalmente não precisam estar em dispositivos primários facilmente acessíveis.

Que quantidade de armazenamento você realmente precisa?
A quantidade e o tipo de armazenamento que precisamos para o BIG DATA dependem da quantidade de dados que precisamos armazenar e do tempo que esses dados serão úteis.

Podem ser dados de transmissão de várias fontes que são enviados a você literalmente a cada segundo, sobre os quais só dispõe de alguns minutos antes que esses dados tornem-se velhos. Este tipo de dado inclui atualizações sobre o clima, tráfego, assuntos mais falados em redes sociais e tweets sobre eventos ao redor do mundo.

Também pode incluir dados em repouso ou dados gerados e controlados pelo negócio para utilização moderada. Transmitir dados exige apenas capacidades de captura e análise de alto desempenho. Uma vez que fez sua análise, não precisa mais deles.

No caso de dados em repouso ou para dados controlados pelos negócios, cabe a você armazená-los.

Que tipo de ferramenta de armazenamento funciona melhor?
Para empresas que estão apenas começando a luta com a análise e o armazenamento de BIG DATA  os observadores da indústria defendem a virtualização do armazenamento para acomodar todo o armazenamento em um só lugar, a deduplicação para comprimir os dados e uma abordagem de armazenamento em camadas para garantir que os dados mais valiosos sejam mantidos nos sistemas de forma mais facilmente acessíveis. 

A virtualização do armazenamento oferece uma camada de abstração de software que tira os dispositivos físicos da vista do usuário e permite que todos os dispositivos sejam administrados como um único agrupamento. Embora a virtualização de servidores seja um componente bem estabelecido das infraestruturas de TI hoje em dia, a virtualização do armazenamento ainda precisa chegar a tal nível.

Em pesquisa realizada em fevereiro de 2012 pelo Aberdeen Group, com participação de 106 grandes empresas, apenas 20% dos entrevistados disseram possuir um aplicativo único para gestão de armazenamento. A média era de três aplicativos de gestão para 3,2 dispositivos de armazenamento.

Muitos fornecedores de armazenamento relutam em deixar que seus dispositivos sejam administrados pelo produto de outro fornecedor. A virtualização de armazenamento é muito mais complexa e mais demorada, por isso ela ainda não deslanchou como a virtualização de servidores. Em vez disso, muitos administradores de armazenamento estão voltando-se para implementações do tipo em nuvem para armazenamento de terceira ou quarta camada para movimentar dados mais facilmente por diferentes infraestruturas e reduzir os custos com armazenamento. Algumas empresas já fizeram isso e obtiveram bons resultados, mas não é algo garantido.

Esperamos ver um aumento no uso de armazenamento baseado em nuvem e em outros recursos computacionais baseados em nuvem no futuro próximo à medida que a conectividade de rede melhora, os custos caem e a habilidade de codificar e decodificar dados em tempo real melhore. Com a nuvem recebemos uma conta mensal que é paga a partir do orçamento operacional, e não um orçamento separado.

Deduplicação e compressão
Administradores podem diminuir a quantidade de armazenamento necessário por meio da utilização da deduplicação, que elimina dados redundantes através da utilização de ferramentas de compressão que identificam "strings" curtos e repetidos em arquivos individuais e armazenam somente uma cópia de cada.

Até que ponto as necessidades de armazenamento podem ser reduzidas? Na pesquisa do Aberdeen Group, 13% dos entrevistados contaram que reduziram os dados em até 50%, mas um índice mais provável para grande parte das empresas seria uma redução de 30% a 50% dos dados estruturados altamente repetitivos.

Armazenamento em camadas
Depois que o negócio decide o tipo de dado que quer analisar, os administradores de armazenamento podem colocar os dados mais novos e mais importantes em meios de armazenamento mais confiáveis e rápidos. À medida que os dados vão ficando obsoletos, podem ser movidos para um armazenamento mais lento e barato. Sistemas que automatizam o processo de armazenamento em camadas estão ganhando espaço, mas ainda não são amplamente utilizados.

Ao desenvolver níveis de armazenamento, os administradores devem considerar a tecnologia de armazenamento usada, a velocidade do dispositivo e a forma de RAID necessária para proteger os dados.

A resposta padrão para o "failover" é a replicação, normalmente na forma de matrizes RAID. Mas em grandes escalas, o RAID pode criar mais problemas do que soluções, conta Neil Day, vice-presidente e CTO da Shutterfly, um site de fotos online que permite que usuários armazenem um número ilimitado de imagens em sua resolução original. Seu armazenamento excede os 30 petabytes de dados.

No esquema tradicional de armazenamento de dados em RAID, cópias de cada dado são espelhadas e armazenadas nos vários discos que compõem a matriz, garantindo sua integridade e disponibilidade. Mas isso significa que um único dado armazenado e espelhado (copiado) pode aumentar cinco vezes de tamanho, exigindo mais espaço para armazenamento. À medida que o espaço nos discos utilizados nas matrizes de RAID aumenta – discos de 3 terabytes são muito atraentes do ponto de vista de densidade e consumo de energia – o tempo gasto para recolocar o substituto de um disco avariado em paridade plena está cada vez maior.

A Shutterfly eventualmente adotou uma tecnologia de código de exclusão, onde dados podem ser divididos em pedaços, com cada pedaço sendo inútil se estiver só, e dispersados em diferentes discos ou servidores. Os dados podem ser completamente remontados a qualquer momento com uma fração dos pedaços, mesmo se vários pedaços tiverem sido perdidos devido a falhas de dispositivo. Em outras palavras, você não precisa criar várias cópias de dados; uma única instância pode garantir a integridade e a disponibilidade dos dados. Como os códigos de exclusão são baseados em software, a tecnologia pode ser utilizada com o hardware em commodity, diminuindo ainda mais o custo de escala.

Um dos primeiros fornecedores de software baseado em código de exclusão é a Cleversafe, que acrescentou informações de localização para criar o que ela chama de código de dispersão, permitindo que usuários armazenem pedaços de dados – ou fatias, como eles os denominam – em lugares geograficamente separados, como centros de dados múltiplos.

Megausuários de Big Data
Assim como a Shutterfly, empresas com grandes necessidades na área de armazenamento devem olhar além do armazenamento em blocos. Quando falamos sobre imensos conjuntos de dados, na casa dos petabytes, precisamos buscar os armazenamentos baseados em objeto ou um sistema de arquivos distribuídos. Pense sobre ofertas comercialmente disponíveis como o armazenamento de expansão Isilon, da EMC, ou o Fluid File System, da Dell... e nas soluções de código aberto, também. Elas são muito mais baratas para armazenar dados e, de um ponto de vista de desempenho, podem lhe oferecer uma relação preço/desempenho muito melhor. E, por último, elas são escaláveis.

Usuários de softwares comerciais muitas vezes têm dados que são parcialmente descartáveis ou requerem muito pouco pós-processamento.

Menos administradores necessários
Quando implantados corretamente, a virtualização de armazenamento, a deduplicação, o armazenamento em camadas e as tecnologias de código de exclusão devem reduzir sua necessidade de administradores, pois as ferramentas possibilitam a gestão de dados através de uma única tela. No caso da Shutterfly, a infraestrutura de armazenamento automático permitiu que a empresa diminuísse o crescimento de sua equipe de manutenção. À medida que a carga diária de trabalho de manutenção da empresa diminui, os administradores podem passar mais tempo em projetos proativos.

Em alguns casos, projetos de BIG DATA são realizados por equipes especiais, e não por funcionários de TI tradicionais. São operados por, e de propriedade de, unidades de negócio, pois a infraestrutura de TI não é ágil o suficiente para suportar ambientes de BIG DATA  ou ela pode não ter o conjunto de habilidades necessário para isso.

Você pode vir a ter uma situação na qual os administradores de armazenamento não estejam envolvidos. Ou eles podem apenas ter um pequeno papel onde forneçam armazenamento e o resto seja feito pelo grupo dos sistemas.

Em breve
Uma tendência que fará sucesso é o conceito de mover a camada de cálculo para os dados. Olhamos para as soluções da Cleversafe e para as soluções de outros fornecedores de armazenamento que estão desenvolvendo capacidades de cálculo na camada de armazenamento. Não é mais viável mover dados para onde a camada de cálculo fica. É praticamente impossível, especialmente se você tem apenas alguns minutos para analisar os dados antes deles tornarem-se banais. Então, por que eu não deixo a camada de cálculo ficar onde os dados ficam?.

A Cleversafe oferece uma solução de alto desempenho baseada no Hadoop para grandes usuários de BIG DATA como a Shutterfly, mas eles estão tentando torná-la mais abrangente.

A Cleversafe quebra o modelo de aquisição de poder computacional de um fornecedor e de armazenamento de aplicativos de outro fornecedor. Para serem bem-sucedidas junto às grandes empresas as unidades de negócio terão de começar a pensar de forma diferente. Estou confiante de que essa solução logo deslanchará, pois as eficiências no modelo atual simplesmente não são favoráveis para o BIG DATA.

BIG DATA é uma forma das pessoas manterem sua vantagem competitiva. A fim de tirar o máximo proveito de seus dados, elas terão de modificar processos e a forma como funcionam como empresa – elas terão de ser muito ágeis para derivar valor desses dados.

Mas antes de mergulhar em uma nova infraestrutura de armazenamento de BIG DATA as pessoas precisam fazer seu dever de casa. Pesquisar e falar com pessoas que já passaram por isso. Não é como se fosse uma tecnologia de ponta que ninguém utilizou, portanto, converse com alguém que já a utilizou para não cometer os mesmos erros que eles cometeram.

O Hadoop não é mais a única opção
O conceito de BIG DATA cresceu. O termo já foi aplicável a dados complexos que precisavam ser disponibilizados instantaneamente para consultas altamente repetitivas de usuários frequentes como cientistas e sites de mídia social. Hoje ele inclui a profusão de petabytes de dados estruturados e não estruturados que a maioria das empresas deve armazenar.

Embora os sistemas de código livre Hadoop e Cassandra, dizem alguns, sejam as melhores opções para BIG DATA para os trituradores de dados mais vorazes, alguns fornecedores comerciais estão melhorando seus sistemas de armazenamento para lidar com múltiplos petabytes de dados e oferecer formas rápidas e simples de analisá-los.

BIG DATA costumava ser uma ferramenta que apenas as maiores empresas eram capazes de utilizar, mas agora é difícil encontrar alguém que não esteja utilizando algo para obter conhecimento a partir dos dados. Para fazer isso "é melhor você ter um armazenamento eficiente, ou o custo pode lhe trazer prejuízos. Também precisaremos extrair um desempenho decente desses aplicativos, que são muito dinâmicos. E é melhor podermos fazer o backup disso.


Deixe os seus comentários! Envie este artigo, divulgue este link na sua rede social...


Tags: BIG DATA, deduplicação, armazenamento, administrando, sobrecarga, dados, 


LinkWithinBrazilVBAAccessSpecialist

Related Posts Plugin for WordPress, Blogger...

Vitrine