Today’s reading :

HippoRAG rag

Research inspiring :

  • 現有 Benchmark 普遍會需要人工審核,或是需要人工加入進行出題
  • 透過 LLM 生成的 Benchmark 普遍是透過 Document-based 的情況進行出題
    • 所以普遍會是以一對一得形式來進行生成
    • 有機率會出現其實有許多不同隱藏答案出現在其他資料來源
    • 這種情況就會導致 Benchmark 分數不理想,並且容易有分數上的誤判
  • 現有 GraphRAG 普遍可以透過 Graph 這種 well-structured 的資料結構來解決 multi-hop question

Project Progress :

  • finish the docker image, but still can not test on the VM.
  • adjust the package structure

Side Project :

  • Build this page on Github Pages

TODO :