- 0
- CoinNess
- 20.11.02
- 12
- 0
[서울=뉴시스] 최현호 기자 = 오픈AI가 인공지능(AI) 프로젝트의 위험성 등을 평가하기 위한 안전·보안 위원회를 구성했다고 28일(현지시각) 밝혔다.
AP통신과 뉴욕타임스(NYT)에 따르면 오픈AI는 블로그 게시물을 통해 이같이 알리면서, 이 위원회가 프로젝트·운영에 대한 주요 안전·보안 결정과 관련해 이사회에 조언을 제공할 것이라고 설명했다.
위원회는 AI 안전에 대한 사내 논쟁이 불거진 가운데 출범한 것이다. 최근 오픈AI 전 임원인 얀 레이크는 회사를 떠난 뒤 "안전이 제품에 뒷전으로 밀려났다"는 비판을 한 바 있으며, AI 위험성을 연구하는 슈퍼얼라인먼트팀을 이끌어 온 공동창업자 일리아 수츠케버도 회사를 떠났다.
오픈AI 측은 자사의 AI 모델이 기능과 안전성 측면에서 업계를 선도하고 밝히면서도, 논란에 대해서는 언급하지 않았다.
위원회는 오픈AI의 최고경영자(CEO)인 샘 올트먼과 이사회 의장 브랫 테일러, 4명의 기술·정책 전문가로 구성됐다. 또 이사회 멤버인 쿠오라의 CEO 애덤 디앤젤로와 소니 전 법률고문인 니콜 셀리그만도 위원회에 참여한다.
위원회는 90일 이내에 오픈AI의 프로세스와 안전장치 등을 평가해 이사회에 권고안을 제출할 예정이다. 오픈AI는 이후 안전과 보안을 충족하는 방식으로 권고안을 채택, 이를 공개적으로 발표할 예정이라고 부연했다.
오픈AI는 GPT-4의 기술을 계승할 새로운 주력 AI 모델 훈련도 시작했다고 밝혔다.
오픈AI는 "범용인공지능(AGI)을 구축하려 노력하는 가운데, 새 AI 모델이 더 높은 수준의 기능을 가져올 수 있을 것으로 기대한다"고 언급했다. AGI는 인간의 두뇌가 할 수 있는 모든 일을 할 수 있는 AI를 말한다.
◎공감언론 뉴시스 wrcmania@newsis.com
AP통신과 뉴욕타임스(NYT)에 따르면 오픈AI는 블로그 게시물을 통해 이같이 알리면서, 이 위원회가 프로젝트·운영에 대한 주요 안전·보안 결정과 관련해 이사회에 조언을 제공할 것이라고 설명했다.
위원회는 AI 안전에 대한 사내 논쟁이 불거진 가운데 출범한 것이다. 최근 오픈AI 전 임원인 얀 레이크는 회사를 떠난 뒤 "안전이 제품에 뒷전으로 밀려났다"는 비판을 한 바 있으며, AI 위험성을 연구하는 슈퍼얼라인먼트팀을 이끌어 온 공동창업자 일리아 수츠케버도 회사를 떠났다.
오픈AI 측은 자사의 AI 모델이 기능과 안전성 측면에서 업계를 선도하고 밝히면서도, 논란에 대해서는 언급하지 않았다.
위원회는 오픈AI의 최고경영자(CEO)인 샘 올트먼과 이사회 의장 브랫 테일러, 4명의 기술·정책 전문가로 구성됐다. 또 이사회 멤버인 쿠오라의 CEO 애덤 디앤젤로와 소니 전 법률고문인 니콜 셀리그만도 위원회에 참여한다.
위원회는 90일 이내에 오픈AI의 프로세스와 안전장치 등을 평가해 이사회에 권고안을 제출할 예정이다. 오픈AI는 이후 안전과 보안을 충족하는 방식으로 권고안을 채택, 이를 공개적으로 발표할 예정이라고 부연했다.
오픈AI는 GPT-4의 기술을 계승할 새로운 주력 AI 모델 훈련도 시작했다고 밝혔다.
오픈AI는 "범용인공지능(AGI)을 구축하려 노력하는 가운데, 새 AI 모델이 더 높은 수준의 기능을 가져올 수 있을 것으로 기대한다"고 언급했다. AGI는 인간의 두뇌가 할 수 있는 모든 일을 할 수 있는 AI를 말한다.
◎공감언론 뉴시스 wrcmania@newsis.com
댓글 0
추천+댓글 한마디가 작성자에게 힘이 됩니다.
권한이 없습니다.