가이드라인 없다 AI 활용, 인스타그램 팔로워 늘어나지만

조회 998 | 2024-03-04 02:49
http://www.momtoday.co.kr/board/103466

업무에 AI 도구를 사용하는 직원이 늘어나고 있지만, 기업이 기술을 효과적이고 안전하게 사용하는 방법을 안내하는 속도는 여전히 더딘 것으로 나타났다. 협업 소프트웨어 업체 슬랙은 약 1만 명의 사무직 노동자를 대상으로 직장에서의 AI 및 자동화 도입 태도를 중점적으로 조사한 결과를 발표했다. 설문조사에서는 AI 도구의 예시로 오픈AI의 챗GPT와 DALL-E가 포함되었지만, 슬랙은 조사가 생성형 AI에만 국한된 것이 아니라고 밝혔다. 인스타 팔로워 구매 설문조사에 따르면, 지난 분기 직장 내 AI 사용률은 전 분기보다 24% 증가했다. 작년 9월에는 직장인 5명 중 1명이 AI를 사용했다면, 2024년 1월에는 사무직 노동자 4명 중 1명이 AI 도구를 사용했다는 의미다. 직원의 의식은 엇갈렸다. 42%는 AI의 업무 처리에 기대가 높다고 밝혔고, 31%는 중립적인 입장을 보였고 27%는 우려했다. 그러나 AI를 경험한 직원의 80%는 이미 생산성이 개선되었다고 답했다. 고위 경영진도 직원이 AI 도구를 사용하기를 원했다. 설문조사 참여 임원 중 81%는 조직 내 도구를 도입이 비교적 시급하다고 느꼈다. 그러나 직원에게 업무에 AI 도구를 사용할 때의 지침을 제대로 안내하는 기업은 많지 않다. 응답자의 거의 절반인 43%가 상사에게서 AI 사용 지침을 받은 적이 없다고 답했다. 인스타 팔로워 슬랙은 AI 지침이 없을 경우 직원이 생산성을 높이는 도구를 실험할 가능성이 줄어든다고 추측했다. AI 가이드라인을 정의한 기업 직원이 도구를 경험한 확률은 가이드라인이 없는 기업의 직원보다 거의 6배나 높았다. AI 사용을 제한하는 기업이라고 해도, 가이드라인이 없는 경우보다 가이드라인이 있는 경우가 도구를 사용해 볼 가능성이 더 높았다. 기업 책임자는 AI를 광범위하게 도입할 때의 이점을 알고 있지만, 슬랙 연구 및 분석 담당 수석 부사장 크리스티나 잰저는 “경영진이 AI 사용 가이드라인을 명확하게 전달하고, 사용 가능한 다양한 도구와 직원이 알아야 할 한계를 설명해야 한다”라고 말했다. 잰저는 “분명한 것은 경영진이라고 모든 답을 다 알고 있을 것이라고 기대하는 사람은 아무도 없다는 것”이라며 “그러나 초기 단계에서 직원에게 할 수 있는 것과 할 수 없는 것을 명확히 알려주어야 한다. 기업은 직원이 AI 도구를 가장 잘 사용할 수 있는 가이드라인을 제시해야 한다”라고 강조했다. 인스타 팔로워 늘리기 제이 골드 어소시에이츠의 수석 애널리스 잭 골드는 슬랙의 조사 결과를 보고 “AI 사용 지침을 받은 적이 없는 직원이 43%에 불과하다니 놀랍다. 주변 대화에 따르면 아무런 지침을 받지 못한 직원이 75~80%에 달한다”라고 말했다. 골드는 특히 생성형AI 도구와 기업 데이터가 노출될 위험이 있다고 지적했다. “기본적으로 공개 도구를 사용할 때는 사용자의 모든 입력 내용이 도구에 통합된다. 따라서 민감한 데이터가 유출될 수 있다.” 이러한 위험은 규제가 엄격한 산업에서 특히 중요하다. 골드는 교육의 중요성을 재차 강조하며 “직원에게 어떤 AI 도구가 데이터에 피해를 입히고 어떤 도구는 안전한지 알려야 한다. 보안 교육으로 보안 침해를 방지하는 것과 마찬가지로, 직원에게 안전한 AI 사용법을 알려주는 것도 중요하다”라고 말했다. 인스타 한국인 팔로워 골드는 생성형 AI가 전달하는 모든 정보가 정확하지는 않다는 사실도 알려야 한다며 “AI의 환각을 기반으로 결과를 도출하면 큰 문제가 발생한다. 여러 번 확인을 거듭해야 한다”라고 말했다. AI가 잘못된 정보를 생성하는 환각 현상은 빈번하게 일어난다. 슬랙 응답자 중 경영진은 데이터 보안 및 개인정보 보호(44%)를 가장 우려했다. 그 다음으로 우려하는 것은 AI의 신뢰성과 정확성(36%)인 것으로 나타났다. 잰저는 “경영진은 데이터 프라이버시와 데이터 보안을 보장하고, AI 도구가 생성하는 결과를 신뢰할 수 있도록 IT팀과 긴밀히 협력해 신뢰할 수 있는 AI 도구를 배포해야 한다”라고 조언했다. 경영진이 꼽은 AI 도구의 가장 큰 이점은 직원 효율성 및 생산성 향상(38%), 데이터 기반 의사결정 지원(35%), 제품 및 서비스 혁신(34%), 비용 절감(33%)이었다. 직원 관점에서는 반복적이고 가치가 크지 않은 업무를 자동화한다는 점이 가장 큰 장점으로 꼽혔다. 잰저는 “가까운 미래에 AI가 저부가가치 업무 처리에 도움이 되고, 직원은 회사 수익에 기여하는 영향력 있는 업무에 집중하게 될 것이다. 직원도 AI의 지원을 상당히 기대하고 있다. 연구 결과에 따르면 ‘업무를 위한 업무’에 시간을 많이 할애할수록 AI의 도움을 더 많이 기대한다”라고 설명했다. 현재 거의 모든 기업의 경영진이 AI를 이용해 사업을 개선하는 데 많은 관심이 있다. 실무자도 마찬가지여서, 업무에서 문제가 생길 때 AI를 활용해 어떻게 해결할 수 있을지 궁금하다. 분명한 것은 오픈AI 챗GPT나 구글 바드 같은 생성형 AI를 그대로 가져와 기업 IT 인프라에 붙이는 방식은 피해야 한다는 사실이다. 기업 데이터를 생성형 AI로 보내 처리한 후 답변을 받는 방식인데, 이 과정에서 치명적인 위험에 노출될 수 있다. 인스타 좋아요 늘리기 생성형 AI로 보내는 기업 데이터에 거버넌스, 즉 적절한 보안을 적용하는 것이 사실상 불가능하고, 전송하는 데이터도 너무 많을 수 있기 때문이다. 데이터 처리 과정에서 우리 기업의 비즈니스를 이해하지 못하는 답변이 만들어질 수도 있다. 설사 이런 문제를 모두 해결했다고 해도 확률론적으로 거짓일 수 있는 답변을 활용해 기업을 운영할 수는 없다. 생성형 AI 도입이 어려운 이유 이 밖에도 자체 구축 방식으로 생성형 AI를 도입한 많은 기업이 여러 가지 어려움에 직면해 있다. 무엇보다 조악한 사용자 경험(UX)이다. 웹과 모바일 등 다양한 환경에서 일관된 UX를 제공해야 하는데, 개별 기업이 만족할 수준의 UX를 직접 만드는 것은 쉬운 일이 아니다. 신뢰성 문제도 있다. 생성형 AI가 내놓은 인사이트의 정확성을 위해서는 시맨틱 레이어가 필요한데, 개별 기업 단위에서 여러 기업용 솔루션의 특성까지 고려해 다양한 데이터 소스에 접근할 수 있는 데이터 레이어를 개발하기는 매우 어렵다. AI 전문가를 확보하는 문제도 있다. AI 인프라를 개발, 운영하는 데 필수적이지만, LLM 역량을 가진 전문가에 대한 수요가 워낙 많다 보니 채용하는 것 자체가 쉽지 않다. 기존 인력을 재교육하는 것도 기간과 비용을 고려했을 때 현실적으로 어렵다. 설사 이런 문제를 모두 해결했다고 해도 여전히 남는 것이 있다. 새로운 생성형 AI 기능을 기존 기업 IT 인프라에 통합하는 작업이다. 오늘날 기업 인프라는 온프레미스부터 클라우드까지 매우 다양하고 사용하는 언어도 제각각이다. 이 복잡한 기업 IT 생태계 전반에 걸쳐 생성형 AI 기술을 매끄럽게 통합하려면 상당한 전문성과 비용이 드는데, 개별 기업이 감당하기에는 한계가 뚜렷하다. 인스타그램 팔로워 늘리기 BI 레이어를 활용하는 것이 해법 해법은 거짓 가능성이 있는 AI를 이미 정확성이 검증된 BI의 통제하에 두는 것이다. 마이크로스트레티지 원(Microstrategy One)처럼, 사용자와 생성형 AI 사이에 BI 레이어를 두는 방식이다. 사용자의 입력을 받은 후 BI 레이어에서 기업 보안 거버넌스에 맞춰 필요한 데이터를 수집하고, 이렇게 검증된 데이터만 생성형 AI로 전달한다. 생성형 AI가 이 데이터를 처리한 결과 역시 BI 레이어에서 미리 확인해, 최종적으로 사실에 부합하는 내용만을 대시보드 등을 통해 사용자에게 보여주게 된다. 가끔은 이 내용을 사용자에게 더 자세하게 설명해야 하는 경우가 있다. 이때는 다시 해당 내용을 생성형 AI로 넘겨 사람이 더 쉽게 이해할 수 있도록 필요한 답변 문장을 생성한 후 챗봇 채팅 창을 통해 사용자에게 제시한다. 이를 통해 생성형 AI를 활용할 때의 데이터 관련 위험을 해결할 수 있다. 차세대 BI에서 AI가 중요한 역할을 하리라는 것은 의심의 여지가 없다. 단지 생성형 AI의 치명적인 약점을 극복하는 마지막 걸림돌이 남아 있다. BI 레이어를 통해 생성형 AI를 제어하는 방식은 생성형 AI의 장점을 최대한 살리면서도 기업 운영에 꼭 필요한 정확성까지 놓치지 않는다. 전통적인 BI와 사람에 가까운 생성형 AI의 이상적인 조합이자, 기업이 AI의 이점을 온전히 누리는 정확하고 신뢰할 수 있는 방법이다. 유튜브 구독자 구매 데이터 거버넌스는 데이터 보안과 관리, 품질, 분류를 포함한 여러 법칙을 망라한다. 사용 정책을 정의하고, 고급 데이터 소스를 생성하고, 데이터셋을 프로파일하고, 용어를 기록하며 데이터의 생애주기를 관할하는 것도 들어간다. 기업 모델에 따라 전략을 마련하는 CDO, 데이터셋에 대한 정책을 정립하는 데이터 소유자, 데이터 품질 향상 책임자인 데이터 스튜어드의 역할을 정의하기도 한다. 데이터 무결성 도구 업체 프리사이즐리(Precisely)의 CTO 텐두 요거트쿠는 “데이터 거버넌스는 기업이 핵심 데이터를 찾고 이해하고 견인하도록 이끄는 데이터 무결성의 핵심 요소로 정확한 보고와 지식에 근거한 결정을 목적으로 한다”라고 정의했다. “데이터 거버넌스는 데이터의 의미, 계보, 영향력에 대한 이해를 제공해 기업이 법규를 준수하고 AI 모델이 믿을 수 있는 데이터를 받아 신뢰할 수 있는 결과를 낸다는 확신을 준다.” 요거트쿠는 데이터 거버넌스가 과거에는 법규 준수에 집중한 기술적 약속이었다며 “AI가 도입되면서 데이터는 가장 필수적인 기업 자산이 되었고, 데이터 거버넌스도 엔터프라이즈 전반에 걸쳐 매우 중요한 위치에 올랐다”라고 설명했다. 유튜브 구독자 늘리기 생성형 AI를 실험하거나 LLM으로 애플리케이션을 구축하는 기업에 있어 데이터 거버넌스의 책임과 직원의 AI 도구 활용에 따른 위험은 더욱 커지고 있고, 비구조화된 데이터에 대한 시야도 중요해졌다. 데이터 거버넌스가 생성향 AI 도구와 역량에 내재된 기회와 위험에 적응하기 위해 발전해 나가는 전략에 대한 여러 전문가의 의견에도 일치점이 있었다. 데이터 거버넌스 부서는 데이터 카탈로그를 감독하고 중앙화된 데이터셋을 직원이 활용해 머신러닝 모델, 대시보드나 다른 분석 도구 구축에 쓸 수 있도록 데이터 활용 전략을 전달해야 한다. 데이터 거버넌스 부서는 LLM 내의 엔터프라이즈 데이터 소스를 사용하고 생성형 AI 도구를 실행하는 방법과 그 사용 여부를 포함하도록 정책을 업데이트하고 있다. 개발자와 데이터 과학자는 그 정책을 리뷰하고, 생성형 AI 실험을 지원하기 위해 데이터셋에 대한 어떤 질문이라도 데이터 소유자와 상의해야 한다. 클라우드 기반 소프트웨어 업체 이그나이트(Egnyte)의 공동 설립자이자 CSO인 크리스 라히리는 “생성형 AI로 데이터 복잡성이 더 커지기 마련이므로 기업은 좋은 데이터 거버넌스와 프라이버시 정책을 적절히 배치하고 이들 모델을 훈련하는 데이터의 안전을 보장해야 한다. 기업은 AI 도구에 어떤 데이터가 쓰이는지, 기업이 사용하는 오픈AI, PaLM, 내부 LLM 같은 서드파티 중 어떤 것을 사용하는지에 세심한 주의를 기울여야 한다”라고 조언했다. 유튜브 조회수 구매 프라이버시, 데이터 보호, 수용 가능한 활용법에 대한 생성형 AI 전략을 리뷰하라. 많은 기업이 생성형 AI 사용례에 필요한 데이터셋을 사용하기 전에 데이터 소유자의 요청과 허가를 받을 것을 의무화하고 있다. 데이터셋을 사용하기 전에 위험, 법규준수, 법적 기능 등이 GDPR, CCPA, PCI, HIPAA, 기타 데이터 법규준수 표준에 부합하는지를 협의하라. 유튜브 조회수 늘리기 데이터 정책은 또한, 서드파티 데이터 소스를 사용할 때의 데이터 공급망과 책임도 고려해야 한다. EDB의 CPEO 조지프 드 브리스는 “특정 지역 내에서 보호받는 데이터와 관련된 보안 사고가 일어나면, 업체는 자사와 고객사 모두 데이터, 특히 AI/ML 플랫폼에 사용되는 데이터의 적절한 완화에 대한 양측의 책임에 있어 명확해질 필요가 있다”라고 말했다. 인스타그램 팔로워 생성형 AI가 가져올 기회를 반기는 사용자는 특히 기업의 데이터 프라이버시, 보안, 법규준수 정책을 이해함으로써 가장 중요한 것을 우선시한다는 마인드를 장착하는 것이 특히 중요할 것이다.

이전.다음글