체계적인 거버넌스 마련이 기본
지속 가능한 주기적‧반복적인 관리 프로세스 운영해야

[컴퓨터월드] “쓰레기를 넣으면 쓰레기가 나온다(garbage in, garbage out).” 데이터 업계의 오래된 명언 중 하나다. 질 낮은 기름이 자동차의 성능을 저하시키는 것처럼, 질 낮은 데이터는 분석의 결과를 신뢰할 수 없는 것으로 만들어 기업의 의사결정을 방해한다.

기업이 데이터에서 가치를 생산하고 비즈니스에 활용하기 위해서는 무엇보다 양질의 데이터를 대량으로 확보하는 것이 필수다. 데이터를 수집할 수 있는 채널이 늘어나면서 획득할 수 있는 데이터의 양은 폭발적으로 증가하고 있지만, 이러한 데이터들을 체계적으로 관리하고 활용할 수 있도록 일정 이상의 품질 수준을 유지하는 것은 쉽지 않다.


품질 낮은 데이터는 가치 ‘0’

디지털 뉴딜 전략의 핵심 과제인 ‘데이터 댐’ 프로젝트가 IT 산업계의 관심을 집중시키고 있다. 데이터 댐은 4차 산업혁명 시대의 원유로 불리는 데이터를 범국가적으로 축적‧공유할 수 있는 시스템이다. 공공과 민간을 구분하지 않고 전 산업 분야에서 생성되는 데이터를 모아 시너지를 일으킴으로써 향후 데이터 기반의 혁신을 위한 기반을 마련할 수 있게 된다. 특히 단순히 데이터를 모으는 것만이 아니라 필요한 데이터가 적재적소에 활용될 수 있도록 전체 라이프 사이클을 고려한 시스템을 만든다는 계획이다.

업계 일각에서는 데이터 댐이 제 역할을 하기 위해 데이터 품질 관리가 무엇보다 중요하다고 지적한다. 실제 댐에서 수질 관리가 되지 않아 썩은 물을 방치하게 되면 오히려 피해를 야기할 수 있는 것처럼, 데이터 댐 역시도 적절한 품질 관리가 이뤄지지 않으면 그 안에 담긴 데이터들이 모두 쓸모없는 것이 되기 때문이다. 일반적으로 서로 다른 분야에서 생성된 데이터를 결합시킬 경우 데이터의 품질이 떨어지게 된다. 이는 결합하려는 데이터의 종류가 다양해지고 수집 범위가 넓어질수록 더욱 큰 문제로 다가온다. 따라서 범국가적으로 모든 데이터를 집중시키려는 데이터 댐은 무엇보다 품질 관리를 중요시해야한다.

데이터 댐에서 수질 관리가 되지 않으면 하위 서비스들의 가치가 크게 훼손된다.
데이터 댐에서 수질 관리가 되지 않으면 하위 서비스들의 가치가 크게 훼손된다.

오늘날 데이터 품질은 ‘데이터가 갖춰야 할 기본적인 자격’이다. 최소한의 품질을 갖추지 못한 데이터는 정보로써 아무런 가치가 없기 때문이다. 전 세계 기업들은 새로운 인사이트를 찾고 가치를 창출하기 위해 데이터를 활용하려 하지만, 품질 관리가 되지 않은 데이터를 보관하고 있는 것은 썩은 물을 담고 있는 댐처럼 오히려 기업의 인프라와 비용을 낭비하게 만든다.

그렇다면 데이터 품질이란 무엇인가? 일반적으로는 완전성(Completeness), 정확성(Accuracy), 일관성(Consistency), 유효성(Validity) 등을 데이터 품질을 측정하는 지표로 활용하지만, 단순하게 말하자면 ‘데이터가 얼마나 정확한지’를 뜻한다고 볼 수 있을 것이다. 가령 A라는 고객에 대한 데이터가 그 사람의 이름이나 연령, 거주지, 구매 이력 등을 정확히 담고 있다면 좋은 품질을 갖춘 데이터다. 필요한 정보가 누락돼 있거나 너무 적은 정보량만을 담고 있다면 좋은 데이터라고 할 수 없을 것이다. 따라서 데이터 품질을 높이기 위해서는 데이터가 정확하고 풍부한 정보를 가질 수 있도록 수집‧저장‧활용에 이르는 전체 데이터 라이프 사이클을 점검해야 한다.


장기적인 품질 관리 전략 갖춰야

기업은 자사가 보유한 데이터를 점검하고 잘못되거나 누락된 항목을 찾아 수정하는 것만으로도 데이터 품질을 높일 수 있다. 하지만 이와 같은 수정‧보완만으로는 장기적인 효과를 기대할 수 없다. 단기적으로 수집된 데이터를 고쳐 품질 수준을 높일 수는 있겠지만, 잘못된 데이터가 발생한 원인을 고치지 않으면 시간이 지남에 따라 지속적인 품질 하락이 발생하기 때문이다. 가령 고객 데이터에서 주소 항목이 지속적으로 누락되고 있다면, 단순한 휴먼 에러인지 시스템 상의 문제인지를 확인하고 같은 문제가 발생하지 않도록 보완해야 한다.

새롭게 생성되는 데이터만이 아니라 기존에 축적돼 있던 데이터 역시 마찬가지다. 데이터의 품질은 시간이 지날수록 낮아진다. 한 번 정확한 데이터를 만들어놓았다고 해서 일정 수준의 품질이 유지되는 것이 아니라는 의미다. 이는 기업의 주변 환경과 업무 체계가 지속적으로 변화하기 때문이다. 가령 고객에 대한 데이터는 지속적으로 최신화하지 않으면 잘못된 데이터가 된다. 고객이 전화번호를 바꾸거나 이사를 했는데 이러한 정보가 정확히 반영되지 않는다면, 해당 고객 데이터는 품질이 낮은 가치없는 데이터가 된다.

따라서 오늘날의 데이터 품질 관리란 일회성 프로젝트가 아니라 항구적인 시스템과 프로세스로 이해해야 한다. 데이터 품질을 높게 유지하기 위해서는 정확한 데이터가 지속적으로 축적될 수 있도록 장기적인 관점에서 바라봐야 한다는 뜻이다. 이는 결국 데이터의 수집에서부터 활용에 이르기까지 모든 과정을 관리할 수 있는 전사적인 데이터 거버넌스(Data Governance) 체계를 다잡아야 한다는 것을 의미한다.

장기적으로 지속 가능한 데이터 품질 관리 전략이 필요하다.
장기적으로 지속 가능한 데이터 품질 관리 전략이 필요하다.

사실 데이터 품질에 대한 이처럼 관심이 높아진 것은 그리 오래되지 않았다. 데이터 전문기업이나 관련 연구를 수행하는 전문가들은 지속적인 데이터 품질 관리의 중요성을 얘기해왔지만, 수요기업 입장에서는 와닿지 않았던 것이다. 데이터 품질이 높으면야 당연히 좋지만, 투자 순서를 결정할 때 앞자리에 있지는 않았다.

이는 데이터의 분석 수요와 트렌드가 지금과 다르기 때문이다. 몇 년 전만 해도 IT 조직에 데이터 분석을 의뢰하면 며칠을 기다려 보고서 하나를 받는 게 당연하게 여겨졌다. 분석 의뢰가 들어왔는데 정확한 데이터가 갖춰져 있지 않다면, 아예 데이터를 다시 수집하는 단계부터 시작하는 경우도 있었다. 산업계의 트렌드 변화가 빠르지 않았던 시절에는 이렇게 대처해도 비즈니스를 영위하는 데에 문제가 없었다. 데이터 품질은 항상 높은 수준으로 관리돼야 하는 게 아니었으며, 필요할 때만 집중적으로 관리해줘도 충분했다.

하지만 오늘날 데이터 분석은 무엇보다 민첩성이 강조되고 있다. 이제 전 세계 지역별 매출 보고서 하나를 받아보기 위해 며칠씩 기다려주는 비즈니스 조직은 없다. 필요한 보고서 하나를 얻기 위해 프로젝트성으로 DW를 구축하고 밤새 분석 솔루션을 돌리는 구시대적인 방법으로는 고속화된 비즈니스 환경 변화에 대응할 수 없다. 이제 데이터는 요청이 있을 때마다 확인하고 보완하는 자원이 아니라, 항상 최신화되어 있으며 언제든 뚜껑을 열어 확인할 수 있는 실시간성을 갖춰야 한다.

데이터 활용성 높이기 위한 전담 조직이 필요하다
명재호 엔코아 부사장

 

기업 내에서 데이터 품질을 지속적으로 유지시키고 관리하기 위해서는 이를 전담할 수 있는 담당 조직을 구성해야 한다. 이는 C레벨에서 데이터에 대한 의사결정을 내릴 수 있는 CDO(Chief Data Officer)일 수도 있고, IT 부서에 포함된 팀 단위의 조직일 수도 있다.

최근까지도 대부분의 기업들은 데이터 전문 조직을 갖추고 있지 않았다. 그러나 빅데이터 분석이 일반화되고 데이터에 대한 수요와 관리 필요성이 높아짐에 따라, 산업 분야별로 일부 선도적인 기업들은 데이터만을 전문적으로 다루는 팀을 구성하려는 시도에 나서고 있다.

이미 국내에서도 금융‧통신‧제조 등 핵심 산업 분야의 리더들은 사내 조직을 재편하고 외부 전문가를 수혈하면서 데이터 전담조직을 만들었다. 그동안은 IT 부서에서 데이터 업무도 함께 수행했지만 지금은 일부 기업들이 DA 담당 조직, 데이터 표준 담당 조직, 전반적인 라이프 사이클 관리 조직 등을 별개로 만들어나가는 추세다. 전체 IT업무를 관장하는 CIO에 더해 더욱 협소한 분야에 전문성을 가진 CDO를 두는 경우도 있다. 데이터가 기업의 생존에 직결되는 만큼 조직의 업무 프로세스를 데이터를 중심으로 바꿔나가는 시도로 보인다.

이처럼 민간에서 고무적인 시도들이 다수 보이는 반편, 공공 분야에서는 아직까지 안타까운 문제들이 많다. 특히 공공기관의 문제는 공무원들이 비리 예방 등을 위해 주기적으로 담당 업무를 순환한다는 점이다. IT 분야는 여타 업무와 달리 지식과 경험이 축적돼야 하는 전문 영역인데, IT 담당자 역시 순환보직이기에 2~3년 경험을 쌓아 업무에 익숙해지려고 하면 다른 보직으로 이동해버린다. 어느 정도 조직 내 데이터의 흐름이 보이고 개선할 수 있는 부분이 보일 때쯤 되면 본인의 의지와는 별개로 근무지나 담당 업무를 바꿔버리니 국가적으로 큰 마이너스가 아닐 수 없다.

최근 정부에서 데이터의 중요성을 내세우며 관련 직류를 신설한 것으로 알고 있다. 예를 들어 각 부처마다 외부에서 쿼터를 정해 도움을 구할 수 있는 데이터 전문관 제도 같은 것들이다. 정부가 정말 데이터의 중요성을 인식하고 공공기관에서부터 장기적인 안목으로 변화를 꾀하려고 한다면, 데이터 관련 업무가 필요로 하는 특성을 정하고 전문화된 조직이 구성될 수 있도록 개선해나가야 할 것이다.

철저한 품질 관리가 데이터 활용성 높인다

한편 데이터 분석을 보다 민첩하게 만들기 위해 데이터의 활용 주체가 IT 조직에서 비즈니스 조직으로 옮겨감에 따라, 데이터 전문성이 부족한 사용자들이 잘못된 판단을 내리지 않도록 항상 정확한 데이터를 제공하는 것은 무엇보다 중요해졌다.

이제 비즈니스 조직은 데이터 기반의 의사결정이 필요할 때 IT 조직에게 도움을 요청하지 않는다. 정확한 목적을 가지고 그에 필요한 데이터를 스스로 찾아 조립하며 인사이트를 생성한다. 이러한 체계에서 비즈니스 조직은 자연스럽게 데이터가 IT 조직의 자원이 아니라 자신의 자원이라고 여긴다. IT 조직은 비즈니스 조직이 데이터를 안전하고 편리하게 다룰 수 있도록 데이터 포털(Portal)과 같은 인프라를 구축하고, 그들이 해결하지 못하는 기술적인 문제에 직면했을 때 도움을 제공하는 지원 조직이다.

데이터의 활용 주체가 비즈니스 조직으로 넘어가게 되면 IT 조직은 바빠진다. 전문성이 낮은 비즈니스 조직들에 의해 기존 데이터들이 무분별하게 변화하거나 신규 데이터가 제멋대로 쌓일 수도 있기 때문이다. 데이터의 활용은 비즈니스 조직이 하지만 관리는 여전히 IT 조직의 일이다. 접근 권한 관리나 메타데이터 관리 등을 통해 데이터가 통제된 상태에서 관리되지 않는다면 데이터의 품질은 빠르게 낮아진다. 일정 이상의 품질이 보장되지 않는다면 데이터는 가치가 없어진다. 화려한 데이터 포털을 구축해 수많은 데이터를 검색하고 조합할 수 있더라도, 밑단에 있는 인프라와 관리지침이 지켜지지 않아 신뢰성을 잃으면 데이터의 가치는 허상에 불과하다.

비즈니스 조직은 IT 조직과 달리 데이터에 대한, 더 나아가 IT 기술에 대한 전문성이 떨어질 수 밖에 없다. 많은 IT 업무들이 비즈니스 조직에게 넘어갔지만 여전히 핵심적인 관리 체계를 만드는 것은 IT 조직의 일이고, 데이터 품질을 유지하기 위해 근본적인 관리지침을 세우는 것 역시 IT 조직이 담당해야 할 업무다. IT 조직은 데이터 품질을 지속적으로 관리함으로써 전사적으로 좋은 의사결정이 내려질 수 있도록 간접적으로 지원할 수 있다. 비즈니스 조직이라는 요리사가 좋은 음식을 만들 수 있도록 주방 설비를 정비하고 좋은 재료를 준비하는 것이 필요하다는 의미다.


거버넌스 차원의 데이터 품질 관리 전략 필요

데이터 전문가들은 기업이 데이터 품질을 높게 유지하기 위해 ▲데이터 관리 주체 구분과 책임감(ownership) 강화 ▲합리적인 관리 정책(governance) 마련 ▲객관적인 데이터 품질 측정/진단 ▲뛰어난 관리 도구(solution) 도입 등이 필요하다고 조언한다.

데이터 관리 주체를 구분하는 것은 개별 데이터의 관리 책임을 개인 혹은 팀 단위로 분류하기 위한 것이다. 예를 들어 마케팅 데이터를 모니터링하는 것은 마케팅 업무를 담당하는 A팀이, 고객 데이터를 최신화하는 것은 대고객 서비스가 많은 B팀이 담당하는 식이다. 단일한 IT 조직이 사내 모든 데이터를 통합 관리하는 것보다, 해당 업무를 자주 접하고 전문성을 가진 개인 혹은 팀에게 관리 책임을 이관함으로써 데이터를 최신화하고 정합성을 높일 수 있다. 이는 또한 데이터 품질을 높이기 위한 노력이 담당자 본인의 업무에 직접적인 도움이 된다는 것을 인식시켜 데이터에 대한 주인의식을 강화하는 효과도 있다.

데이터 관리 정책, 거버넌스 체계를 바로잡는 것은 데이터 품질 관리의 핵심이다. 데이터 거버넌스는 기업 내에서 데이터가 수집‧저장‧분석‧활용되는 모든 프로세스에서 일관된 정책과 표준을 제시함으로써 데이터의 가용성과 안전성, 정합성 등을 보장한다. 다시 말해 흠결없는 데이터 거버넌스 체계는 정확하고 활용도 높은 데이터 생산을 보장하며, 이는 지속적인 데이터 품질 향상과 같은 의미를 갖는다.

기업은 단순히 ‘데이터를 최신화하고 외부 유출을 방지하라’는 두루뭉술한 지침이 아니라, 전 직원 각자가 수행하는 업무 프로세스에서 데이터를 접하는 방식을 분석하고 항상 지켜나갈 수 있도록 단계별로 구분된 관리 규정을 만들어야 한다. 정확한 관리 규정이 세워져 있다면 사용자마다 제각기 다른 방식으로 데이터를 생성하고 관리해 혼란을 야기하게 된다. 데이터가 구조적으로 잘 축적될 수 있도록, 그리고 서로 다른 조직에서 생성한 데이터를 결합했을 때 혼란을 일으키지 않도록 전사적인 기준과 표준을 세워야 한다. 이를 위해서는 사용자들이 동일한 데이터를 가지고 일관된 의사소통을 할 수 있도록 사용하는 용어나 메타데이터를 통일하는 작업도 필요하다.

현재 자사의 데이터 품질 수준을 객관적으로 평가하고 문제점을 확인하는 것 역시 중요하다. 하지만 품질 수준을 측정하겠답시고 사내에서 보유하고 있는 모든 데이터의 정합성 등을 점검하는 것은 시간이나 비용 등을 고려했을 때 현실적이지 못하다. 따라서 기업은 데이터 품질 수준을 측정하기 전에 ▲측정 대상을 명확히 하고 ▲점검하고자 하는 측정 기준을 수립하며 ▲효과적인 측정 방법을 선정해야 한다.


현실적 요소 고려한 품질 측정 계획 세워야

품질 측정을 위한 프로젝트에서 측정 대상을 명확히 하는 것은 매우 중요하다. 기업들이 보유하고 있는 데이터의 양이 폭증하고 있으므로 모든 데이터를 검사하는 것은 효율적이지 않으며, 데이터의 형태와 구조가 모두 다르기 때문에 같은 방법으로 검사하는 것도 불가능하다. 따라서 기업은 자사가 보유하고 있는 데이터를 분석해 데이터 품질을 높여야 하는 우선순위를 설정하고 품질을 측정할 범위를 결정해야 한다.

이에 대해 국내 데이터 전문기업 데이터스트림즈 관계자는 “예를 들어 대고객 서비스를 제공하는 기업에게 있어서 고객과의 계약 정보와 실제 결제(billing) 정보가 일치하는지는 매우 중요하다. 이에 비하면 직원들의 사내식당 이용률이나 메뉴 선호도 정보 등은 상대적으로 중요성이 낮은 데이터다. 모든 데이터에 대한 품질을 향상시키는 것은 이상적이기는 하지만 효과적이지는 않으며, 효율성을 고려해 품질 관리 대상을 선정해야 한다”고 조언했다.

데이터 품질 관리는 주기적‧반복적으로 수행해야 한다.
품질 관리는 주기적‧반복적으로 수행해야 한다.

품질 측정 대상을 선정했다면 실제로 검사를 수행하기 위한 기준을 고려해야 한다. 측정 기준은 해당 데이터의 어떤 요소를 점검할지를 선정하는 것이다. 데이터의 완전성, 정합성, 보안성 등을 모두 점검하고자 한다면 세부적으로 어떤 기준을 적용할 것인지 정해야한다. 이 과정에서는 앞서 언급한 효율성을 고려해, 모든 데이터에 대해 모든 관리기준을 적용할 필요는 없다는 것도 고려할 필요가 있다.

측정 대상과 기준이 정해졌다면 거기에 맞춰 가장 효율적인 항목별 측정 방법을 선정해야 하는데, 여기에는 데이터의 생성 주기나 특성, 활용도 등 실제 비즈니스 환경을 고려해야 한다. 예를 들어 주 단위로 데이터를 수집해 매월 마지막 날에 보고하는 데이터가 있다면, 해당 데이터의 품질을 시간 단위로 꾸준히 측정하는 것은 자원과 인력을 낭비하는 일이기 때문이다. 또한 데이터의 측성과 구조, 적용할 관리기준 등을 고려해 어떤 측정 기법을 사용할 지에 대해서도 고민해야 한다. 이를 위해서는 실제 데이터를 생산하고 활용하는 비즈니스 조직과 IT 조직 간에 충분한 협의가 필요하며, 필요하다면 외부 데이터 전문기관의 조력을 구하는 것도 좋은 방법이다.

 

데이터스트림즈는 다양한 채널에서 수집되는 데이터들을 체계적으로 관리해 ‘보이는 데이터 거버넌스’를 구현하는 ‘이루다(IRUDA)’를 보유하고 있다. 이루다는 데이터스트림즈가 지난 20여년 간 데이터 전문 비즈니스를 수행하며 축적한 기술력과 관련 솔루션들을 결집한 통합 거버넌스 관리 솔루션이다.

‘이루다’는 데이터스트림즈의 솔루션들을 결합해 전사 데이터 거버넌스를 완성한다.
‘이루다’는 데이터스트림즈의 솔루션들을 결합해 전사 데이터 거버넌스를 완성한다.

그동안 데이터스트림즈는 ▲메타데이터 표준을 사전 정의하고 모니터링하는 ‘메타스트림(MetaStream)’ ▲데이터 품질 지표 관리와 직관적인 검증/진단이 가능한 ‘퀄리티스트림(QualityStream)’ ▲데이터 라이프 사이클과 흐름 정보를 시각화하는 ‘Q-트랙(Q-Track)’ 등 다양한 데이터 전문 솔루션들을 제공해왔다. 하지만 각각의 기능들이 솔루션별로 나뉘어 있다보니 다양한 기능을 필요로 하는 사용자 입장에서는 어려움이 따랐다.

이러한 문제를 해결하기 위해 데이터스트림즈는 통합 거버넌스 관리 솔루션 이루다를 출시했다. 이루다는 기존에 데이터스트림즈가 제공하던 다양한 데이터 전문 솔루션들을 하나로 연결한다. 메타데이터 관리와 데이터 품질 관리, 계보 관리 등을 하나로 연결해 사용자가 단일한 솔루션 내에서 기업 내 모든 데이터 라이프 사이클을 편리하게 확인할 수 있도록 돕는다. 특히 지난해 출시된 2.0버전에서는 서치&디스커버리(Search & Discovery) 기능을 강화해, 간단한 키워드 검색으로 원하는 데이터의 위치와 구성 정보를 찾고 손쉽게 연결할 수 있다.
 

비투엔은 국내에서 약 16년 간 데이터 컨설팅 서비스를 제공하며 뛰어난 기술력과 노하우를 축적해왔다. 특히 데이터의 중요성과 활용도가 높아지면서 정확한 데이터를 만들어 품질을 향상시킬 수 있는 프로세스와 관리 체계의 중요성을 지속 강조하고, 기업들이 장기적인 전략으로 데이터 품질 관리를 수행할 수 있도록 다양한 서비스를 제공하고 있다.

최근 비투엔은 데이터 품질 관리가 기업들의 핵심 역량으로 떠오르면서 ▲품질진단 솔루션 ‘SDQ(Smart Data Quality)’ ▲메타데이터 관리 솔루션 ‘SMETA(Smart Metadata)’ ▲이기종 데이터 통합 솔루션 ‘SFLOW(Smart Data Integration)’ 등 자사의 데이터 전문 솔루션을 바탕으로 비즈니스를 펼치고 있다.

‘SDQ’는 대용량 데이터에도 빠르고 정확한 데이터 품질 진단이 가능하다.
‘SDQ’는 대용량 데이터에도 빠르고 정확한 데이터 품질 진단이 가능하다.

특히 SDQ는 데이터 품질 관리를 위한 핵심 솔루션으로, 기업과의 컨설팅을 통해 정확한 데이터 품질 지표를 수립하고 이를 효과적으로 운영할 수 있도록 다양한 기능을 갖추고 있다. 지속적인 데이터 운영 프로세스 분석으로 비효율적인 부분이나 오류가 발생할 수 있는 부분을 사전에 탐색해 개선할 수 있도록 돕는다. 또한 그간 다수의 SQL 튜닝 프로젝트를 경험하며 쌓은 기술력을 적용해, 기업이 대량의 데이터에 대한 전수 검사를 수행할 경우에도 효율적이고 빠른 성능을 제공할 수 있다.
 

엔코아는 국내 대표적인 데이터 컨설팅 기업이다. 그동안 컨설팅 서비스를 중심으로 비즈니스를 확장하고 레퍼런스를 쌓아왔지만, 최근에는 데이터 통합관리 솔루션 ‘데이터웨어(DATAWARE)’를 중심으로 자사의 기술력을 제품화해 전략적으로 활용하고 있다. 데이터웨어의 포트폴리오에 포함된 ▲엔터프라이즈 데이터 모델링 도구 ‘데이터웨어 DA#’ ▲데이터 품질 관리 솔루션 ‘데이터웨어 DQ#’ 등에는 오랫동안 축적된 엔코아의 노하우가 결합됐다는 평가다.

엔코아 데이터웨어는 기업 데이터 관리의 전 프로세스를 효율적으로 지원한다
엔코아 데이터웨어는 기업 데이터 관리의 전 프로세스를 효율적으로 지원한다

엔코아의 솔루션들은 컨설팅 비즈니스를 추진하면서 필요한 기능들을 단계적으로 쌓아 개발된 제품들이기에 높은 실전성을 갖추고 있다. 프로젝트 현장에서 데이터를 관리하던 아이디어들을 영역별로 결합해 개별 솔루션으로 만들고, 이를 데이터웨어를 중심으로 묶어 하나의 통합 솔루션으로 제공한다. 현직 데이터 컨설턴트들이 필요로 하는 기능들이 적극 반영돼 있기에 전문가들로부터 높은 평가를 받고 있다.

특히 데이터 거버넌스나 품질 관리 프로세스를 정립하며 꼭 필요한 데이터 모델링 도구를 갖추고 있다는 점이 장점으로 꼽힌다. DA#은 국내 비즈니스 환경에 최적화된 데이터 모델링 도구로, 다차원‧다계층에 걸쳐 입체적인 데이터 모델링과 분석이 가능해 데이터 로직을 빠르고 정확하게 표현할 수 있도록 돕는다. 기업은 뛰어난 성능의 모델링 도구를 중심으로 복잡한 데이터 관리 프로세스를 간소화하고 편리하게 정립할 수 있다.
 

위세아이텍은 국내에서 다수의 빅데이터 분석 프로젝트를 다수 수행하며 핵심 역량을 축적해왔다. 특히 최근 몇 년 사이에는 머신러닝과 인공지능(AI)을 활용한 데이터 전문 솔루션들을 출시하며 기업의 데이터 프로세스를 간소화하고 효율을 높이는 방안을 제시하고 있다.

위세아이텍은 메타데이터 관리 솔루션 ‘와이즈메타(WiseMeta)’와 데이터 품질관리 솔루션 ‘와이즈DQ(WiseDQ)’로 국내 데이터 품질 시장 확산에 대응하고 있다. 와이즈메타는 데이터 거버넌스 정립을 위해 필수적인 메타데이터 관리에 최적화돼있으며, ▲전사 데이터 표준화를 위한 단어 자동 분리 ▲데이터 분석을 통한 도메인 자동판별 ▲AI 기반의 유사용어 추천 및 정리 등이 가능해 사용자의 편의성을 높인다. 특히 최근 활용도가 높아지고 있는 NoSQL 데이터의 메타데이터 및 스키마 정보 관리가 가능하며, 범정부 데이터 플랫폼과의 연계 또한 가능해 향후 공공데이터 품질수준평가가 가속화될 경우 활용도가 증가할 것으로 보인다.

‘와이즈DQ’는 머신러닝 알고리즘을 통해 보다 손쉬운 이상 데이터 탐지가 가능하다.
‘와이즈DQ’는 머신러닝 알고리즘을 통해 보다 손쉬운 이상 데이터 탐지가 가능하다.

와이즈DQ는 위세아이텍의 핵심 역량 중 하나인 머신러닝 알고리즘을 적용한 데이터 품질 관리 솔루션이다. 기업의 업무규칙과 메타데이터를 분석한 룰 기반의 품질 측정은 물론, 머신러닝 알고리즘을 적용한 통계적 품질진단 기능은 사전에 입력되지 않은 데이터의 이상값도 탐지할 수 있어 기업의 데이터 품질 수준을 크게 높일 수 있다.
 

지티원은 국내 대표적인 데이터 거버넌스 및 컴플라이언스 전문기업이다. 특히 지티원의 데이터 플랫폼은 ▲메타데이터 표준 관리 솔루션 ‘메타마이너(MetaMiner)’ ▲데이터 품질 관리 솔루션 ‘DQ마이너(DQMiner)’ ▲데이터 계보 관리 솔루션 ‘DL마이너(DLMiner) ▲DB/메타데이터 영향분석 도구 ‘체인지마이너(ChangeMiner)’ 등 기업의 데이터 거버넌스 정립을 위한 전방위 솔루션들을 갖추고 있다. 기업은 해당 솔루션들을 단일 플랫폼 상에서 활용하며 데이터 관리 프로세스를 간소화할 수 있다.

지티원은 단일한 거버넌스 플랫폼을 중심으로 전사 통합 데이터 관리를 지원한다.
지티원은 단일한 거버넌스 플랫폼을 중심으로 전사 통합 데이터 관리를 지원한다.

지티원 측은 전사적인 데이터 거버넌스를 갖추기 위해서는 데이터의 수집‧저장‧분석‧활용 등에 대한 횡적인 관리가 필요하다고 설명했다. 데이터 관리의 궁극적인 목적이 활용도를 높이기 위한 것인 이상, 기업의 데이터 관리 조직은 사내에서 일어나는 모든 데이터의 흐름을 직관적으로 확인하고 사용자들의 접근성을 높일 수 있어야 한다. 또한 비즈니스 조직이 직접 데이터를 찾고 분석 업무를 수행하는 오늘날, IT 조직의 도움을 받지 않고도 필요에 따라 원하는 데이터에 접근할 수 있는 편리한 데이터 접근 체계가 필요하다는 점을 강조했다.

지티원의 단일화된 데이터 거버넌스 플랫폼은 이와 같은 통합 데이터 관리에 최적화된 기능을 제공한다. 특히 데이터 품질 관리의 핵심 솔루션인 DQ마이너는 사전 검증된 데이터 품질 관리 방법론(Sigma+4DQM)을 적용하고 있으며, DB/메타데이터 영향분석 도구 체인지마이너와 연동해 오류 데이터를 발생시키는 원인을 추적하고 개선하는 데에 탁월한 기능을 제공한다.

저작권자 © 컴퓨터월드 무단전재 및 재배포 금지