클래스: 생성형 AI 시대의 윤리

무료이용으로 수강해 보세요.

업계 전문가가 강의하는 클래스 23,100개를 수강하세요.

Vilas의 프레임워크를 실제 상황에 적용

Vilas의 프레임워크를 실제 상황에 적용

클래스: 생성형 AI 시대의 윤리

Vilas의 프레임워크를 실제 상황에 적용

지난 영상에서 이야기한 프레임워크를 직접 실습해볼 시간인데요 다음 기술 회사의 CTO가 연관된 시나리오를 고려해 보세요 사라가 회의실에 들어옵니다 긴급 회의 때문이죠 심각한 문제가 발생했어요 온라인 주문 고객을 돕기 위해 회사에서 설계한 새로운 AI 기반 챗봇이 부적절하고 부정확하며 공격적이기까지 한 답변을 고객에게 보낸다는 거예요 사라는 이것이 단지 제품 문제에 그치지 않고 윤리적인 의사 결정의 문제라는 것을 이해합니다 즉시 취해야 할 조치가 무엇인지를 알고 있죠 먼저 챗봇을 오프라인으로 꺼야 할 겁니다 그렇게 했죠 그 다음에는 어떤 조치가 필요할까요? 기술자인 사라는 데이터 문제부터 파악할 겁니다 다시 말해, 이 도구가 어떻게 학습되었는지를요 사라는 팀과 함께 논의하여 기본 데이터 세트가 삭제되지 않은 인터넷 대화에서 나왔다는 걸 알게 되죠 제작을 서두르느라 팀이 일련의 필터 및 도구를 거쳐 데이터 세트를 실행해보지 않았던 것이죠 사라는 이제 무엇을 해야 할지 알게 되었죠 팀에게 새 데이터 세트를 사용하라고 지시합니다 주로 고객과의 상호작용이 담긴 회사의 자체 데이터베이스로 구성된 데이터 세트죠 그리고 개인 정보 데이터를 모두 삭제한 다음에만 사라는 모델이 여러 편향 감지 프로세스와 필터를 통해 실행되도록 지시하지만 데이터가 문제의 끝이 아니라는 걸 알고 있습니다 이 문제를 계속 조사하다가 알게 된 사실은 고객이 챗봇을 사용하는 이유가 단순한 고객 서비스 지원 그 이상이라는 것이었습니다 고객은 그 기회를 통해 다양한 주제로 이야기를 나누고자 했죠 회사나 제품과는 상관없는 주제였어요 사라는 기술 팀에서 고객이 도구를 사용할 다른 방법을 검토했어야 한다고 생각합니다 윤리적 보호 장치도 고려해야 했다고요 왜냐하면 사용 범위가 넓어져서 팀이 챗봇의 대화 주제를 제한할 필요가 있거든요 또한 특정 전문 지식에 맞춤형으로 답변을 제공하는 것이 챗봇이 할 일이죠 사라는 고객 지원 팀을 소집하고 일선 직원들을 참여시켜 고객의 대화 경험을 나누도록 했습니다 사라는 고객이…

목차