@@ -197,6 +197,18 @@ jobs:
197
197
backend : " rerankers"
198
198
dockerfile : " ./backend/Dockerfile.python"
199
199
context : " ./backend"
200
+ - build-type : ' cublas'
201
+ cuda-major-version : " 13"
202
+ cuda-minor-version : " 0"
203
+ platforms : ' linux/amd64'
204
+ tag-latest : ' auto'
205
+ tag-suffix : ' -gpu-nvidia-cuda-13-rerankers'
206
+ runs-on : ' ubuntu-latest'
207
+ base-image : " ubuntu:22.04"
208
+ skip-drivers : ' false'
209
+ backend : " rerankers"
210
+ dockerfile : " ./backend/Dockerfile.python"
211
+ context : " ./backend"
200
212
- build-type : ' cublas'
201
213
cuda-major-version : " 12"
202
214
cuda-minor-version : " 0"
@@ -209,6 +221,18 @@ jobs:
209
221
backend : " llama-cpp"
210
222
dockerfile : " ./backend/Dockerfile.llama-cpp"
211
223
context : " ./"
224
+ - build-type : ' cublas'
225
+ cuda-major-version : " 1"
226
+ cuda-minor-version : " 0"
227
+ platforms : ' linux/amd64'
228
+ tag-latest : ' auto'
229
+ tag-suffix : ' -gpu-nvidia-cuda-13-llama-cpp'
230
+ runs-on : ' ubuntu-latest'
231
+ base-image : " ubuntu:22.04"
232
+ skip-drivers : ' false'
233
+ backend : " llama-cpp"
234
+ dockerfile : " ./backend/Dockerfile.llama-cpp"
235
+ context : " ./"
212
236
- build-type : ' cublas'
213
237
cuda-major-version : " 12"
214
238
cuda-minor-version : " 0"
@@ -221,6 +245,18 @@ jobs:
221
245
backend : " vllm"
222
246
dockerfile : " ./backend/Dockerfile.python"
223
247
context : " ./backend"
248
+ - build-type : ' cublas'
249
+ cuda-major-version : " 13"
250
+ cuda-minor-version : " 0"
251
+ platforms : ' linux/amd64'
252
+ tag-latest : ' auto'
253
+ tag-suffix : ' -gpu-nvidia-cuda-13-vllm'
254
+ runs-on : ' arc-runner-set'
255
+ base-image : " ubuntu:22.04"
256
+ skip-drivers : ' false'
257
+ backend : " vllm"
258
+ dockerfile : " ./backend/Dockerfile.python"
259
+ context : " ./backend"
224
260
- build-type : ' cublas'
225
261
cuda-major-version : " 12"
226
262
cuda-minor-version : " 0"
0 commit comments