ollama/llama
Bruce MacDonald 6ee1822105 use embeddings to give chat additional context 2023-07-11 23:12:40 +02:00
..
ggml-cuda.cu vendor llama.cpp 2023-07-11 11:59:18 -07:00
ggml-cuda.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
ggml-metal.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
ggml-metal.m vendor llama.cpp 2023-07-11 11:59:18 -07:00
ggml-metal.metal vendor llama.cpp 2023-07-11 11:59:18 -07:00
ggml.c vendor llama.cpp 2023-07-11 11:59:18 -07:00
ggml.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
k_quants.c vendor llama.cpp 2023-07-11 11:59:18 -07:00
k_quants.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
llama-util.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
llama.cpp vendor llama.cpp 2023-07-11 11:59:18 -07:00
llama.go use embeddings to give chat additional context 2023-07-11 23:12:40 +02:00
llama.h vendor llama.cpp 2023-07-11 11:59:18 -07:00
utils.go call llama.cpp directly from go 2023-07-11 11:59:18 -07:00