안녕하세요~ 이쁜이와 멋쟁이의 BTC_기범입니다.
오늘은 최근 저희들과 많이 친해진 ChatGPT의 개발사, OpenAI에서
새로 발표한 GPT-4 Turbo 모델에 대해서 알아보겠습니다.
요금
GPT-4 (이전 버전)
8K context 모델의 경우 입력 $0.03 / 1K tokens, 출력 $0.06 / 1K tokens,
32K context 모델의 경우 입력 $0.06 / 1K tokens, 출력 $0.12 / 1K tokens 비용이 발생합니다
GPT-4 Turbo
1106 preview 128k context 모델의 경우 입력 $0.01 ****/ 1K tokens, 출력 $0.03 / 1K tokens,
1106 vision preview 128k context 모델의 경우 입력 $0.01 ****/ 1K tokens, 출력 $0.03 / 1K tokens 비용이 발생합니다
참고로 1106 vision preview 128k context 모델은 이미지 이해가 가능한 버전입니다.
GPT-4와 GPT-4 Turbo를 비교했을 때 GPT-4 Turbo가 GPT-4에 비해 인풋 토큰당 비용은 3배 저렴하고, 아웃풋 토큰당 비용은 2배 저렴합니다.
특징
인풋 데이터 길이
인풋 token은 최대 128k까지 입력 가능합니다. 이전 버전의 최대치와 비교했을 때 4배의 수치입니다.
JSON Mode
JSON 문서를 통해 프롬프트 엔지니어링을 할 수 있습니다.
이 기능은 개발자가 ChatGPT를 좀 더 쉽게 사용할 수 있도록 해줄 것 같습니다.
{
“temperature” : 13,
“unit” : “celsius”,
“description” : “Sunny”
}
함수 동시 호출
기존에 한 번에 하나의 함수만 호출할 수 있었던 것에 비해 GPT-4 Turbo는 여러 개의 함수를 한 번에 호출하는 것이 가능합니다.
재현 가능한 출력
시드 파라미터의 설정을 통해 동일한 질문에 대해서 동일한 답변을 출력할 수 있습니다.
지식 보유 수준
기존 모델이 2021년까지 정보를 보유하고 활용할 수 있었던 것에 비해 GPT-4 Turbo는 2023년 4월까지 정보를 보유하고 있습니다.
새로운 입력 포맷과 출력 포맷 (GPT-4 Turbo with Vison)
이미지를 인풋 받아 처리하는 기능이 포함되었습니다.
그리고 텍스트를 보이스로 출력하는 것이 가능합니다.
보이스의 경우 6가지의 보이스 중 선택 가능합니다.
Copyright Shield(저작권 보호)
ChatGPT Enterprise와 API를 통해 얻은 출력에서 발생한 저작권 문제로 인한 비용을 OpenAI에서 부담하는 제도입니다.
ChatGPT를 사용할 때 저작권에 대한 문제로 고민하던 분들에게 좋은 소식인 것 같습니다.
오늘은 ChatGPT의 개발사, OpenAI에서
새로 발표한 GPT-4 Turbo 모델에 대해서 알아보았습니다.
ChatGPT API를 사용하여 서비스를 고안하셨던 분들에게 도움이 될만한 부분이 있었던 것 같은데요.
위 사항들이 서비스의 개선의 계기가 되었으면 좋겠습니다.
감사합니다!
댓글