Mens medierne diskuterer, om data er den nye olie eller ej, er der én ting, der står klart: Ligesom olie kræver data en masse behandling. Fra Facebook til voksende startups, enhver succesfuld organisation, der håndterer en voksende mængde data, skal være i stand til at organisere, få adgang til, sikre og behandle data for at konvertere dem til indsigt og beslutninger.
Der er mange værktøjer og leverandører at overveje, især i forhold til virksomhedens behov og den pågældende opgave. Men uanset opgaven er målet i sidste ende at finde et datastyringsprodukt, der gør data så nyttige som muligt og samtidig minimerer omkostninger, risici og ressourceforbrug.
Dette er en liste over datastyringssoftware, men den er dog ikke omfattende. Vi har udarbejdet en regelmæssigt opdateret, omfattende sorterbar/filtrerbar liste over førende leverandører inden for data management software, du er velkommen til at tjekke den ud.
Data Management Software
Data management er en bred disciplin, med mange forskellige fokuspunkter og værktøjer til at styre disse fokuspunkter. Data Management Software (DMS) fusionerer poster fra flere databaser, udtrækker, filtrerer, opsummerer dataene uden tab af integritet og interferens.
Nogle leverandører og softwares indeholder flere funktionaliteter og kan fjerne behovet for et dedikeret værktøj. Hvis du er på jagt efter lidt mere baggrund om datastyring, skal du huske at tjekke vores blogindlæg om emnet.
Vi kan strukturere datastyringssoftware omkring disse emner
- Open source data management software: Der findes mange open source-datahåndteringsværktøjer, der tjener en række af nedenstående funktioner.
- Datadesign:
- Dataarkitektur og software til design af datamodeller: Først skal virksomhederne modellere deres datastrukturer
- Master- og referencedataadministration: Disse er grundlaget for bedste praksis for databaseadministration og hjælper organisationer med at administrere deres data på tværs af forskellige forretningsenheder
- Databaseadministration: Disse modellerede datastrukturer skal oprettes i databaser
- Indsamling og analyse af dokumenter: Dokumenter og andet ustruktureret indhold udgør en udfordring for især traditionelle databaser. Forskellige løsninger til indsamling af dokumenter letter forvaltningen af ustruktureret indhold
- Metadataforvaltning: Metadata er værdifulde, da de enkleste metadatafelter som f.eks. opdaterings- og oprettelsestidspunkter gør det muligt for virksomheder at identificere problemer i deres data og analysere dataoprettelses- og opdateringsprocesser
- Datakvalitetsstyring: Når først dataføderationen (indsamlingen) er begyndt, skal datakvaliteten overvåges, og der findes mange løsninger til at måle og øge datakvaliteten
- Dataanalyse: Endelig er der mange løsninger af forskellig kompleksitet, der gør det muligt for virksomheder at analysere disse data
Open source data management software
Hvor vi kategoriserer data management værktøjer baseret på deres funktion, tænkte vi, at du måske foretrækker open source løsninger på grund af deres gennemsigtighed og mangel på licensgebyrer. Derfor starter vi med open source data management tabel:
Navn | Grundet | Status | Noter |
---|---|---|---|
Airtable | 2012 | Privat | -Airtable er en cloud-baseret databasesoftware Gratis abonnement tilbyder ubegrænsede datatabeller, 1.200 poster pr. base, 2 GB plads til filtilknytning pr. base og op til 2 ugers revisions- og snapshot-historik. |
GraphDB-Ontotext | 2000 | Private | -GraphDB er en grafisk database, der tilbyder cloud- og on-premise-implementering. |
MariaDB | 2009 | Private | -MariaDB dækker lignende funktioner som MySQL med nogle ekstra udvidelser. -Fortune 500-virksomheder, der bruger MariaDB: Deutsche Bank, DBS Bank, Nasdaq, Red Hat, ServiceNow, Verizon og Walgreens |
Cubrid | 2008 | Private | -CUBRID er et open source DBMS, der er optimeret til OLTP. |
FirebirdSQL | 2005 | Private | -CouchDB er en online-dokumentdatabase og opbevaringsløsning for virksomheder. -Værktøjet giver ACID-semantik gennem flerversionskonkurrencestyring. |
Dataarkitektur og design af datamodeller
Dataarkitektur er de modeller, politikker eller regler, der styrer, hvilke data der indsamles, hvordan de lagres, og hvordan de bruges. Den opdeles derefter yderligere i virksomhedsarkitektur eller løsningsarkitektur.
Datamodellering definerer og analyserer de datakrav, der er nødvendige for forretningsprocesser i informationssystemer. Der produceres tre forskellige typer datamodeller, som udvikler sig fra den konceptuelle model, til den logiske datamodel og ender til sidst med den fysiske datamodel.
Alle disse kategorier hjælper med at organisere og kortlægge data, hvilket forbedrer deres pålidelighed og også gennemsigtigheden i en organisation.
Nogle nyttige værktøjer i forbindelse med disse produkter omfatter:
Navn | Grundlagt | Status | Noter |
---|---|---|---|
Idera | 2004 | Privat | -Datamodellering -Databaseforvaltning for at reducere redundans |
Teradata | 1979 | Public | -Big Data-arkitektur, der kan opbygges fra flere dataplatforme |
Looker | 2011 | Privat | -Dataanalyse uden SQL |
Tableau | 2003 | Public | -Hurtig ad hoc-analyse uden programmering -Automatiske opdateringer eller live-forbindelse |
Reference- og masterdatahåndtering
Referencedata er en delmængde af masterdata, der kan bruges til klassificering i hele organisationen. Nogle af de mest almindelige referencedata omfatter postnumre, valuta, koder og andre klassifikationer – men det kan også være “aftalte” data inden for en organisation. Det er vigtigt at administrere denne type data, da de ofte tjener som reference for en række systemer.
Der findes en række værktøjer til at hjælpe med administration af referencedata, her er et par stykker:
Navn | Grundlagt | Status | Noter |
---|---|---|---|
ASG metaRDM | 1986 | Privat | -Fokus på støtte til overholdelse |
Collibra Reference Data Accelerator | 2008 | Privat | – Nem implementering og implementering |
Informatica Cloud – MDM Reference 360 | 1993 | Offentlig | -Udnytter INFA Cloud MDM-fundamentet |
Kalido by Magnitude Reference Data Management | 2014 | Privat | -Indlejret workflowmotor til forvaltning og styring |
Master Data Management (MDM) er en omfattende metode til at definere og forvalte de væsentlige data i en organisation med henblik på at skabe et referencepunkt. Software til dette område understøtter identifikation, sammenkobling og synkronisering af kundeoplysninger på tværs af forskellige datakilder. Disse oplysninger anvendes til støtte for en række initiativer i forbindelse med dataforvaltning og -styring.
Nogle populære MDM-værktøjer og -leverandører omfatter:
Navn | Grundlagt | Status | Noter |
---|---|---|---|
Orchestra Networks EBX | 2000 | Private | -Inkluderer funktionalitet til master, meta, og referencedata |
Dell Boomi | 1984 | Public | -funktioner som “Boomi Suggest” og “Boomi Assure” til at hjælpe med udvikling og test |
Stibo Systems | 1976 | Private | -Hovedvægten på multidomain MDM |
Profisee | 2007 | Privat | -Løsninger bygget af industrien |
For at lære over 100 leverandører og værktøjer til master data management at kende, er du velkommen til at tjekke vores sorterbare og gennemsigtige leverandørliste, hvor vi har sorteret leverandører baseret på popularitet, modenhed i virksomheden og brugertilfredshed.
Database Management
Database management har en række forskellige målsætninger, der spænder fra ydeevne, til lagring, til sikkerhed og meget mere. Værktøjerne har til formål at kontrollere data i hele deres livscyklus, hvilket fører til bedre forretningsinformation og bedre beslutningstagning.
Nogle generelle opgaver, der bør opfyldes med den rette databaseadministrationssoftware, omfatter:
- Applikationsafstemning
- Svartidsafprøvning
- Gennemløbstest
- Præstationsstyring
Det er vigtigt at huske på forskellen mellem DBMS og RDBMS. DBMS er en generel betegnelse for forskellige typer af databasestyringsteknologier, der er blevet udviklet i løbet af de sidste 50 år. I 1970’erne blev et relationelt databasestyringssystem (RDBMS) født og blev hurtigt den dominerende teknologi inden for området. Den vigtigste faktor i RDBMS er dens rækkebaserede tabelstruktur, der kan forbinde relaterede dataelementer, hvilket opnås via databasernormalisering. Siden 2000’erne er ikke-relationelle eller ikke-SQL-databaser som MongoDB begyndt at vinde popularitet, men relationelle databaser er stadig vigtige til lagring af strukturerede data.
Nogle leverandører, der arbejder inden for denne disciplin, omfatter:
Navn | Grundet | Status | Noter |
---|---|---|---|
Oracle Enterprise Manager | 1977 | Offentlig | -Selvstyringsfunktioner indbygget i databasekernen -For Linux, Windows, Solaris, IBM AIX, UP-UX |
IBM DB2 | 1983 | Public | -For Linux, Unix, og Windows -SQL-kompatibilitet |
MongoDB | 2007 | Offentlig | -Funktionerer med AWS, Azure og Google Cloud -Flere versioner: Enterprise Advanced, Stitch, Atlas, Cloud Manager |
Dokument, Record, Content Management
Enterprise content management, undertiden kaldet dokumentstyring, er processen med at lagre, styre og overvåge dokumenter fra daglige forretningsaktiviteter.
Nogle generelle funktionaliteter, som enhver løsning bør omfatte, er:
- Dokumentscanner til at lave digitale kopier af papirtekster
- Optisk tegngenkendelse (OCK) til at konvertere scannede dokumenter
- Brugerbaseret adgang
- Dokumentsamling til at oprette ved hjælp af et kabinet-og-mappestruktur
- PDF-konverter
- Dokumentopbevaring og sikkerhedskopiering
- Integrationsmuligheder
- Samarbejdsværktøjer og versionsstyring
Navn | Grundlagt | Status | Noter |
---|---|---|---|
Alfresco | 2005 | Privat | -Udvalg af muligheder for arbejdsgange og samarbejde |
Dokmee/Office Gemini | 2006 | Privat | – En billigere løsning end nogle |
Maxxvault | 2008 | Privat | -Ligetil grænseflade |
eFileCabinet | 2001 | Private | -En stærk mulighed for fjernte teams |
Metadata Management
Metadata Management er administrationen af data, der beskriver andre data. Det omfatter også processer til at sikre, at data kan integreres og anvendes i hele organisationen. Det er vigtigt for at opretholde konsistensen af definitioner, klarhed over relationer og datalinjer.
Nogle almindelige opgaver i forbindelse med metadataforvaltning, som bør opfyldes med enhver software eller værktøj, omfatter:
- Metadatarepositorier til dokumentation og forvaltning og til at udføre analyser
- Datalinje for at specificere dataenes oprindelse, og hvor de har flyttet sig over tid
- Business-glossar for at kommunikere og styre nøglebegreber
- Regelstyring for at automatisere håndhævelsen af forretningsregler
- Indflydelsesanalyse, der beskriver eventuelle informationsafhængigheder
Navn | Grundlagt | Status | Noter |
---|---|---|---|
Adaptive Metadata Manager | 1997 | Privat | -Over 20 års erfaring med en række partnerskaber |
Data Advantage Group | 1999 | Privat | -Kendt for nem implementering |
Informatica Metadata Manager | 1993 | Public | -Koncentration på informationsstyring og analyse |
Smartlogic Semaphore | 2005 | Privat | -Fanger inkonsekvente og ufuldstændige metadata relateret til informationsaktiver |
Datakataloger automatiserer metadatastyring og gør den kollaborativ. Hvis du vil vide mere om datakatalogteknologi, er du velkommen til at læse vores artikel.
Data Quality Management
I henhold til IBM mister den amerikanske økonomi 3,1 billioner dollars årligt på grund af dårlig datakvalitet. Når vi taler om dataenes tilstand og anvendelighed i forhold til den tilsigtede funktion, taler vi om datakvalitet. Nogle af de vigtigste processer, der er forbundet med at sikre høj datakvalitet, omfatter:
- Parsing og standardisering: Nedbrydning af tekstfelter i deres komponenter og formatering af deres værdier i konsistente layouts baseret på de valgte kriterier. Nogle almindelige layouts er defineret af branchestandarder, brugerdefinerede forretningsregler eller vidensbaser af værdier og mønstre.
- Generel “udrensning”: Opdatering af dataværdier, så de falder inden for domænerestriktioner, integritetsbegrænsninger eller andre forretningsregler, der bestemmer den minimale datakvalitet for organisationen
- Profilering: Dataanalyse med henblik på at indsamle statistik (metadata) for at få indsigt i datakvaliteten og lokalisere datakvalitetsproblemer
- Overvågning: Proces til at sikre, at data er i overensstemmelse med de fastsatte kvalitetsregler for organisationen
- Berigelse: Forøgelse af værdien af internt opbevarede data ved at tilføje relaterede attributter fra eksterne kilder
Ethvert datakvalitetsværktøj, du overvejer, bør indeholde funktionalitet til alle ovenstående og mere til. Nogle af de største leverandører omfatter:
Navn | Grundlagt | Status | Noter |
---|---|---|---|
Talend Open Studio for Data Quality | 2005 | Offentlig | -Open source med over 400 indbyggede datakonnektorer |
Ataccma | 2007 | Privat | -Maskinindlæring, selvbetjening af dataforberedelse, datakatalog |
BackOffice Associates (BOA) | 1996 | Privat | -Sortiment af færdigpakkede rapporter til rådighed |
Innovative Systems: Enlighten | 1968 | Privat | -Addressevalidering og geokodningsfunktion |
Data Warehousing og BI Management
Et data warehouse er en konsolidering af data fra en lang række kilder, der danner grundlaget for Business Intelligence (BI). Alle data her er lagret i samme format, men intelligente algoritmer som f.eks. indeksering muliggør effektiv analyse.
Business Intelligence er det sæt af metoder og værktøjer, som organisationer bruger til at tage data og træffe bedre informerede beslutninger på baggrund af dem. BI-platforme beskriver enten, hvad der sker med din virksomhed på det nøjagtige tidspunkt, eller hvad der er sket – helst i realtid.
For at få en bedre forståelse af værktøjerne til hvert af disse områder sammenligner nedenstående tabel de vigtigste forskelle:
Hvad det er | Kilde | Kilde | Output | Aditorium | |
---|---|---|---|---|---|
Business Intelligence | System til at udlede forretningsindsigt | Data fra datawarehouse | Rapporter, diagrammer, grafer | Ledere, ledelse | |
Data Warehouse | Datalagring, historiske og aktuelle | Data fra forskellige kilder | Data i et ensartet format til BI-værktøjer | Datatateknikere, data- og forretningsanalytikere. |
Nogle eksempler på værktøjer til disse processer:
Navn | Anvendelse | Grundlagt | Status | Noter |
---|---|---|---|---|
Microsoft Power BI | BI | 2013* | Public | -Tilsvarende grænseflade som Excel |
QlikView | BI | 1993 | Privat | -Omfatter dataudvinding og analyse |
Cognos | BI | 1969 | Privat | -Multidimensionale og relationelle datakilder |
Tableau | BI | 2003 | Public | -Bredt betragtet som en af de bedste muligheder med hensyn til visualiseringer |
Teradata Data Warehouse | DW* | 1979 | Public | -Bruger AMP’er (Access Module Processors) til at øge databehandlingshastigheden |
Amazon Redshift | DW | 2012* | Public | -Fuldstændigt administreret værktøj – intet behov for DBA |
Oracle Data Warehouse | DW | 1977 | Public | -Inkluderer visse BI-funktioner |
*DW = data warehousing
*Årstal for produktets oprettelse, ikke virksomhedens grundlæggelse
Data warehouses eksisterer ofte i tæt sammenhæng med en ETL-løsning (Extract, Transform, Load), der tager data fra mange forskellige kilder og “omdanner” dem til et enkelt, brugbart format til data warehouset. Hvis du vil vide mere, kan du se vores blogindlæg om ETL og ETL-værktøjer.
Dataanalyse
Dataanalyse er resultatet af al denne behandling af data. Dataanalyse er processen med at inspicere, rense, transformere og modellere data med henblik på at finde nyttige oplysninger. Dataanalyse omfatter også datamining, statistiske applikationer (beskrivende statistik, udforskende dataanalyse) og en lang række teknikker til analyse af statistiske data, f.eks. hypotesetest eller regressionsanalyse.
Interesseret i at lære mere om de teknologier og leverandører, der ændrer den måde, som organisationer får tingene gjort? Tjek vores blog for indlæg om en bred vifte af AI/teknologirelaterede emner.