Meta 에서 2020 년 제안했던 RAG. 어찌보면 LLM 이 아무리 커지고 Context 를 잘 입력한다고 해도 RAG 가 가진 직관적인 유용성이 있기 때문에, 당연히 유용할 수 밖에 없는 방법 같기도 합니다.
그리고 RAG 를 통해 정보를 주입한다는 그 자체가 하나의 큰 프레임을 씌운것이라 완전히 open 되고 예상밖의 질의가 오지 않는 상황을 상정한 셈이라... 그러한 상황 정보가 추가된 셈이니 유리할 수 밖에 없지 않나? 싶기도 합니다.
Meta 에서 2020 년 제안했던 RAG. 어찌보면 LLM 이 아무리 커지고 Context 를 잘 입력한다고 해도 RAG 가 가진 직관적인 유용성이 있기 때문에, 당연히 유용할 수 밖에 없는 방법 같기도 합니다. 그리고 RAG 를 통해 정보를 주입한다는 그 자체가 하나의 큰 프레임을 씌운것이라 완전히 open 되고 예상밖의 질의가 오지 않는 상황을 상정한 셈이라... 그러한 상황 정보가 추가된 셈이니 유리할 수 밖에 없지 않나? 싶기도 합니다.
Retrieval Augmented Generation: Streamlining the creation of intelligent natural language processing models
Teaching computers to understand how humans write and speak, known as natural language processing or NLP, is one of the oldest challenges…