#--no-binary llama-cpp-python | |
#llama-cpp-python --config-settings='CMAKE_ARGS="-DLLAMA_CUBLAS=on"' --config-settings="-DLLAMA_CUBLAS=on" --config-settings="FORCE_CMAKE=1" | |
loguru | |
psutil |
#--no-binary llama-cpp-python | |
#llama-cpp-python --config-settings='CMAKE_ARGS="-DLLAMA_CUBLAS=on"' --config-settings="-DLLAMA_CUBLAS=on" --config-settings="FORCE_CMAKE=1" | |
loguru | |
psutil |