import%20marimo%0A%0A__generated_with%20%3D%20%220.11.0%22%0Aapp%20%3D%20marimo.App(width%3D%22medium%22)%0A%0A%0A%40app.cell%0Adef%20_()%3A%0A%20%20%20%20import%20marimo%20as%20mo%0A%20%20%20%20import%20openai%0A%20%20%20%20import%20os%0A%20%20%20%20import%20IPython%0A%20%20%20%20from%20langchain.llms%20import%20OpenAI%0A%20%20%20%20from%20langchain.prompts%20import%20PromptTemplate%0A%20%20%20%20from%20langchain.chains%20import%20LLMChain%0A%20%20%20%20%23%20Memory%20Packages%0A%20%20%20%20from%20langchain.chat_models%20import%20ChatOpenAI%0A%20%20%20%20from%20langchain.chains%20import%20ConversationChain%0A%20%20%20%20from%20langchain.memory%20import%20ConversationBufferMemory%0A%0A%20%20%20%20from%20dotenv%20import%20load_dotenv%2C%20find_dotenv%0A%20%20%20%20import%20marimo%20as%20mo%0A%20%20%20%20return%20(%0A%20%20%20%20%20%20%20%20ChatOpenAI%2C%0A%20%20%20%20%20%20%20%20ConversationBufferMemory%2C%0A%20%20%20%20%20%20%20%20ConversationChain%2C%0A%20%20%20%20%20%20%20%20IPython%2C%0A%20%20%20%20%20%20%20%20LLMChain%2C%0A%20%20%20%20%20%20%20%20OpenAI%2C%0A%20%20%20%20%20%20%20%20PromptTemplate%2C%0A%20%20%20%20%20%20%20%20find_dotenv%2C%0A%20%20%20%20%20%20%20%20load_dotenv%2C%0A%20%20%20%20%20%20%20%20mo%2C%0A%20%20%20%20%20%20%20%20openai%2C%0A%20%20%20%20%20%20%20%20os%2C%0A%20%20%20%20)%0A%0A%0A%40app.cell%0Adef%20_(os)%3A%0A%20%20%20%20%23%20Delete%20if%20not%20using%20in%20UTSA%20%0A%20%20%20%20os.environ%5B%22http_proxy%22%5D%20%3D%20%22http%3A%2F%2Fxa-proxy.utsarr.net%3A80%22%0A%20%20%20%20os.environ%5B%22https_proxy%22%5D%20%3D%20%22http%3A%2F%2Fxa-proxy.utsarr.net%3A80%22%0A%20%20%20%20return%0A%0A%0A%40app.cell%0Adef%20_(find_dotenv%2C%20load_dotenv%2C%20openai%2C%20os)%3A%0A%20%20%20%20%23%20Ensure%20you%20have%20a%20.env%20file%20in%20the%20AgenticAISystems%20folder%20with%20your%20OPENAI_API_KEY.%0A%20%20%20%20working_dir%20%3D%20os.getcwd()%0A%20%20%20%20status%20%3D%20load_dotenv(%0A%20%20%20%20%20%20%20%20find_dotenv(%0A%20%20%20%20%20%20%20%20%20%20%20%20filename%3Df'%7Bworking_dir%7D%2FAgenticAISystems%2F.env'%2C%20%0A%20%20%20%20%20%20%20%20%20%20%20%20raise_error_if_not_found%3DTrue%0A%20%20%20%20%20%20%20%20)%0A%20%20%20%20)%0A%0A%20%20%20%20%23%20API%20configuration%0A%20%20%20%20client%20%3D%20openai.OpenAI(api_key%3D'')%0A%20%20%20%20client.api_key%20%3D%20os.getenv(%22OPENAI_API_KEY%22)%0A%0A%20%20%20%20%23%20LangChain%0A%20%20%20%20os.environ%5B%22OPENAI_API_KEY%22%5D%20%3D%20os.getenv(%22OPENAI_API_KEY%22)%0A%20%20%20%20return%20client%2C%20status%2C%20working_dir%0A%0A%0A%40app.cell%0Adef%20_(client)%3A%0A%20%20%20%20def%20set_open_params(%0A%20%20%20%20%20%20%20%20model%3D%22gpt-3.5-turbo%22%2C%0A%20%20%20%20%20%20%20%20temperature%3D0.7%2C%0A%20%20%20%20%20%20%20%20max_tokens%3D256%2C%0A%20%20%20%20%20%20%20%20top_p%3D1%2C%0A%20%20%20%20%20%20%20%20frequency_penalty%3D0%2C%0A%20%20%20%20%20%20%20%20presence_penalty%3D0%2C%0A%20%20%20%20)%3A%0A%20%20%20%20%20%20%20%20%22%22%22%20set%20openai%20parameters%22%22%22%0A%0A%20%20%20%20%20%20%20%20openai_params%20%3D%20%7B%7D%20%20%20%20%0A%0A%20%20%20%20%20%20%20%20openai_params%5B'model'%5D%20%3D%20model%0A%20%20%20%20%20%20%20%20openai_params%5B'temperature'%5D%20%3D%20temperature%0A%20%20%20%20%20%20%20%20openai_params%5B'max_tokens'%5D%20%3D%20max_tokens%0A%20%20%20%20%20%20%20%20openai_params%5B'top_p'%5D%20%3D%20top_p%0A%20%20%20%20%20%20%20%20openai_params%5B'frequency_penalty'%5D%20%3D%20frequency_penalty%0A%20%20%20%20%20%20%20%20openai_params%5B'presence_penalty'%5D%20%3D%20presence_penalty%0A%20%20%20%20%20%20%20%20return%20openai_params%0A%0A%20%20%20%20def%20get_completion(params%2C%20messages)%3A%0A%20%20%20%20%20%20%20%20%22%22%22%20GET%20completion%20from%20openai%20api%22%22%22%0A%0A%20%20%20%20%20%20%20%20response%20%3D%20client.chat.completions.create(%0A%20%20%20%20%20%20%20%20%20%20%20%20model%20%3D%20params%5B'model'%5D%2C%0A%20%20%20%20%20%20%20%20%20%20%20%20messages%20%3D%20messages%2C%0A%20%20%20%20%20%20%20%20%20%20%20%20temperature%20%3D%20params%5B'temperature'%5D%2C%0A%20%20%20%20%20%20%20%20%20%20%20%20max_tokens%20%3D%20params%5B'max_tokens'%5D%2C%0A%20%20%20%20%20%20%20%20%20%20%20%20top_p%20%3D%20params%5B'top_p'%5D%2C%0A%20%20%20%20%20%20%20%20%20%20%20%20frequency_penalty%20%3D%20params%5B'frequency_penalty'%5D%2C%0A%20%20%20%20%20%20%20%20%20%20%20%20presence_penalty%20%3D%20params%5B'presence_penalty'%5D%2C%0A%20%20%20%20%20%20%20%20)%0A%20%20%20%20%20%20%20%20return%20response%0A%20%20%20%20return%20get_completion%2C%20set_open_params%0A%0A%0A%40app.cell%0Adef%20_(ChatOpenAI)%3A%0A%20%20%20%20llm%20%3D%20ChatOpenAI(%0A%20%20%20%20%20%20%20%20temperature%3D0.0%2C%0A%20%20%20%20%20%20%20%20model_name%3D%22gpt-3.5-turbo%22%20%20%23%20or%20another%20supported%20model%0A%20%20%20%20)%0A%20%20%20%20return%20(llm%2C)%0A%0A%0A%40app.cell%0Adef%20_(ConversationBufferMemory)%3A%0A%20%20%20%20memory%20%3D%20ConversationBufferMemory()%0A%20%20%20%20return%20(memory%2C)%0A%0A%0A%40app.cell%0Adef%20_(ConversationChain%2C%20llm%2C%20memory)%3A%0A%20%20%20%20conversation%20%3D%20ConversationChain(%0A%20%20%20%20%20%20%20%20llm%3Dllm%2C%0A%20%20%20%20%20%20%20%20memory%3Dmemory%2C%0A%20%20%20%20%20%20%20%20verbose%3DTrue%0A%20%20%20%20)%0A%20%20%20%20return%20(conversation%2C)%0A%0A%0A%40app.cell%0Adef%20_(conversation)%3A%0A%20%20%20%20%23%20Example%20usage%3A%0A%20%20%20%20response%20%3D%20conversation.run(%22Hello%2C%20how%20are%20you%3F%22)%0A%20%20%20%20print(response)%0A%20%20%20%20return%20(response%2C)%0A%0A%0Aif%20__name__%20%3D%3D%20%22__main__%22%3A%0A%20%20%20%20app.run()%0A
7ede2d7fb41f6073565cff831483a7134a322aa44fba0e7c4821a8c987ae9242