LangChain Memory
LLM(のchat model?)は、contextに会話の内容を入れる必要がある。
何を入れるか(単純にrecencyで良いのか? summaryするか、時間減衰を関数?として入れるか?)
どれだけ入れるか? (context の token数は制限あるし、コストがかかる)
ConversationBufferMemory()をconstructして, ConversationChainの引数に入れて chainを作って、predictを使う langchain llm の動詞 memoryの永続化、jsonなどで保存。
key別に
会話が長くなるなら必要かも
ConversationBufferMemory
ConversationSummaryMemory
ConversationSummaryBufferMemory