OpenAI Assistant API
OpenAI의 Assistants API는 애플리케이션 내에 AI 기반 어시스턴트를 만들 수 있는 Toolkit
개발자들은 코드 해석기(Code Interpreter), 검색(Retrieval), 기능 호출(Function calling)과 같은 Tool을 이용하여 사용자의 요구사항을 이해하고, 반응을 예측하며, 상호작용적으로 참여하는 AI 어시스턴트를 구축할 수 있다.
이 API는 자연어 처리 기능을 통해 사용자의 입력을 이해하고, 적절한 작업을 수행할 수 있는 AI 어시스턴트를 제작하는 데 필요한 모든 기능을 제공한다.
=> AI 어시스턴트를 특정한 용도를 정하고 해당 용도에 맞는 데이터를 제공할 수 있다.
Assistants API의 Tools
1) 코드 해석기 (Code Interpreter) : 샌드박스 환경에서 Python 코드를 작성하고 실행할 수 있다.
=> 그래프,통계,수학, 파일 읽고 처리
2) 검색 (Retrieval) : 사용자가 제공한 문서나 모델 외부의 지식을 바탕으로 정보를 찾아 응답할 수 있다.
=> 학습된 지식 외에 실시간으로 정보를 가져오는 기능으로 최신이나 실시간 정보, URL의 요약내용
3) 함수 호출(Function Calling) : 사용자가 정의한 함수를 호출하고 그 결과를 반영할 수 있다.
=> 외부 도구나 API와 상호작용하여 특정 작업(파이썬코드, 외부 api 호출 등)을 수행할 수 있게 해주는 기능
Assistants playground
플레이그라운드는 Assistants API의 기능을 탐색하고, 어떠한 코드도 작성하지 않고도 자신만의 어시스턴트를 구축하는 방법을 배울 수 있다.
Assistants API 구조
1.assistants
- 지침(Instructions): 보조 및 모델이 어떻게 행동하거나 응답해야 하는지에 대한 지침
- 모델(Model): GPT-3.5 또는 GPT-4 모델 중에서 선택할 수 있으며, 특화된 모델도 포함됩니다. 검색 도구는 gpt-3.5-turbo-1106 및 gpt-4-1106-preview 모델을 필요로 합니다.
- 도구(Tools): OpenAI에서 제공하고 호스팅하는 코드 해석기(Code Interpreter) 및 검색(Retrieval) 도구를 API가 지원합니다.
- 함수(Functions): 함수 호출 기능과 유사하게 동작하는 사용자 정의 함수 시그니처를 API를 통해 정의할 수 있습니다.
2.threads
대화를 나타냅니다. (하나의 주제)
사용자가 대화를 시작할 때마다 사용자별 스레드를 생성하는 것이 좋습니다. 스레드에서 사용자별 컨텍스트와 파일을 전달할 수 있습니다.
3.Message
사용자 질문과 응답을 포함하는 대화(스레드)의 블록
개별적인 질문 또는 답변
4.runs
사용자 메시지에 대한 응답으로 assistant가 작동하려면 이것을 실행해야 한다.
보조가 스레드를 읽고 도구를 호출할지 아니면 단순히 사용자 쿼리에 최적으로 응답하기 위해 모델을 사용할지를 결정하게 합니다. 실행이 진행됨에 따라, 보조는 'assistant' 역할로 스레드에 메시지를 추가합니다.
Assistant_id는 생성되어 있으니 불러오고
thread와 message만 생성해주고 polling하며 대기하는 wait_on_run 함수를 실행하여 메세지를 출력했다.
from openai import OpenAI
from dotenv import load_dotenv
import json
import os
import time
load_dotenv()
api_key = os.environ.get("FLASK_API_KEY")
client = OpenAI(api_key=api_key)
def show_json(obj):
print(json.dumps(json.loads(obj.model_dump_json()), indent=2))
ASSISTANT_ID="asst_your assitant_id_code"
thread = client.beta.threads.create()
message = client.beta.threads.messages.create(
thread_id=thread.id,
role="user",
content="question-?",
)
run = client.beta.threads.runs.create(
thread_id=thread.id, # 생성한 스레드 ID
assistant_id="asst_your assitant_id_code", # 적용할 Assistant ID
)
def wait_on_run(run, thread):
# 주어진 실행(run)이 완료될 때까지 대기합니다.
# status 가 "queued" 또는 "in_progress" 인 경우에는 계속 polling 하며 대기합니다.
while run.status == "queued" or run.status == "in_progress":
run = client.beta.threads.runs.retrieve(
thread_id=thread.id,
run_id=run.id,
)
# API 요청 사이에 잠깐의 대기 시간을 두어 서버 부하를 줄입니다.
time.sleep(0.5)
return run
run = wait_on_run(run, thread)
messages = client.beta.threads.messages.list(thread_id=thread.id)
show_json(messages)
/*
thread 는 + 하는 한 페이지라고 생각하면 되고
messages 는 질문하는 한 블록을 말한다.
assistant나 thread id는 이미 생성이 되어있고
나중에 그 전의 문맥이 섞이지 않도록 사용자마다 하나의 thread를 가져야 한다.
*/
flask로 구성한 서버에 get요청을 보내고 데이터 값 받아오기
먼저 API 문서의 legacy 부분을 참고하여 백엔드 코드를 구성해보았다.
/*
딕셔너리{} (오브젝트) 안에 리스트[] (배열)
n = material
*/
프론트에서는 async - await 를 사용하여 서버에서 응답을 받고 난 후 뒤의 setMessages가 실행되게 한다. 그렇지 않으면 reply값이 빈 값이거나 정의되지 않은 값이 나올 수 있기 때문에 사용한다.
axios를 사용하여 flask로 구성한 서버에 사용자가 입력한 입력값을 메세지로 보내고 서버의 응답을 채팅 값으로 받는다.
두번째 인자로 추가적인 옵션을 구성할 수 있다. 예를 들어 쿼리 파라미터로 message라는 이름에 input 변수를 넣는다.
프론트에서는 try- catch 문으로 예외 발생상황을 지정하였다. 에러 발생 시에는 에러 발생이라는 답이 나오게 하였다. 그리고 입력값 필드를 비워놓는다.
주의사항으로 key 값을 맞춰주어야 한다.
message로 프론트에서 가져오고 response key값으로 프론트에 불러지게 하였다. (위 코드에서는 reply로 되어있다)
정상적으로 http://localhost:5000/chat 에서 데이터 를 불러오는 것을 확인할 수 있다.
응답 결과
참고
https://yunwoong.tistory.com/294
https://velog.io/@aut7410/1%EC%A3%BC%EC%B0%A8-4c99r1h3
https://www.developerfastlane.com/blog/2023/11/09/creating-ai-assistant-with-openai-assistants-api
추후 post 및 map / 전역,지역 / useclinet / async await / fetch,axios / js, css 관련 포스팅
'프로그래밍 기초 > portfolio project' 카테고리의 다른 글
NGINX 와 서브도메인 연결 (0) | 2024.10.02 |
---|---|
GET,POST 그리고 Content-type / Postman (0) | 2024.09.04 |
Python Flask 웹 서버 실행 (0) | 2024.08.26 |