detr_finetuned_cppe5

This model is a fine-tuned version of toukapy/detr_finetuned_cppe5 on an unknown dataset. It achieves the following results on the evaluation set:

  • Loss: 1.1348
  • Map: 0.2218
  • Map 50: 0.3828
  • Map 75: 0.2171
  • Map Small: 0.25
  • Map Medium: 0.1585
  • Map Large: 0.2409
  • Mar 1: 0.2038
  • Mar 10: 0.5442
  • Mar 100: 0.6037
  • Mar Small: 0.4333
  • Mar Medium: 0.4272
  • Mar Large: 0.6401
  • Map Coverall: 0.4068
  • Mar 100 Coverall: 0.6207
  • Map Face Shield: 0.1384
  • Mar 100 Face Shield: 0.5684
  • Map Gloves: 0.2036
  • Mar 100 Gloves: 0.6545
  • Map Goggles: 0.1505
  • Mar 100 Goggles: 0.5462
  • Map Mask: 0.2099
  • Mar 100 Mask: 0.6289

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 0.0001
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: cosine
  • num_epochs: 60

Training results

Training Loss Epoch Step Validation Loss Map Map 50 Map 75 Map Small Map Medium Map Large Mar 1 Mar 10 Mar 100 Mar Small Mar Medium Mar Large Map Coverall Mar 100 Coverall Map Face Shield Mar 100 Face Shield Map Gloves Mar 100 Gloves Map Goggles Mar 100 Goggles Map Mask Mar 100 Mask
No log 1.0 107 1.4728 0.0576 0.1377 0.0406 0.0513 0.105 0.0581 0.081 0.3151 0.3917 0.3 0.2766 0.4112 0.1353 0.4766 0.013 0.2949 0.061 0.4509 0.012 0.2554 0.0667 0.4809
No log 2.0 214 1.3775 0.0856 0.1821 0.0689 0.1145 0.1106 0.0881 0.1261 0.3593 0.4296 0.4 0.316 0.4493 0.2013 0.5986 0.0258 0.3203 0.0968 0.4263 0.0196 0.2738 0.0846 0.5289
No log 3.0 321 1.4530 0.072 0.1514 0.0567 0.0959 0.1114 0.0754 0.0935 0.3448 0.4296 0.3444 0.3285 0.4492 0.1892 0.5342 0.0189 0.3392 0.0526 0.3362 0.0278 0.3831 0.0717 0.5551
No log 4.0 428 1.4093 0.078 0.1703 0.064 0.0631 0.0937 0.0802 0.0979 0.3576 0.4514 0.3111 0.3132 0.4766 0.2188 0.5896 0.0143 0.3266 0.0654 0.4656 0.0163 0.3754 0.075 0.4996
1.2913 5.0 535 1.3523 0.0935 0.1946 0.0813 0.1433 0.0977 0.0983 0.1373 0.3945 0.4669 0.4667 0.3354 0.4883 0.2406 0.5775 0.0264 0.3658 0.0824 0.5312 0.0186 0.3446 0.0992 0.5151
1.2913 6.0 642 1.3167 0.1168 0.2413 0.0967 0.2318 0.1052 0.1257 0.144 0.406 0.4793 0.5111 0.3539 0.4988 0.2589 0.6032 0.0318 0.3101 0.1211 0.558 0.0347 0.3954 0.1372 0.5298
1.2913 7.0 749 1.3705 0.0867 0.179 0.0789 0.1412 0.0866 0.0908 0.1079 0.3493 0.4314 0.4333 0.3251 0.4481 0.2583 0.5991 0.0217 0.3266 0.0579 0.4496 0.0192 0.3015 0.0766 0.4804
1.2913 8.0 856 1.3039 0.1226 0.2434 0.1086 0.2239 0.1174 0.1324 0.1441 0.4055 0.4866 0.4333 0.3496 0.5108 0.271 0.5793 0.049 0.3367 0.1065 0.5491 0.0383 0.3892 0.1481 0.5787
1.2913 9.0 963 1.3037 0.1285 0.2571 0.1136 0.2093 0.1105 0.1389 0.1331 0.4177 0.4944 0.4 0.3407 0.5242 0.2914 0.5901 0.033 0.3228 0.119 0.5652 0.0486 0.4154 0.1505 0.5787
1.2347 10.0 1070 1.3257 0.1182 0.2333 0.1088 0.1854 0.1144 0.1254 0.1297 0.4006 0.4731 0.4 0.3409 0.4955 0.2874 0.5865 0.0498 0.3671 0.1011 0.5696 0.0258 0.3446 0.1269 0.4978
1.2347 11.0 1177 1.3714 0.1009 0.2112 0.0859 0.2207 0.1094 0.105 0.1146 0.3726 0.4489 0.4222 0.3339 0.4708 0.2602 0.5306 0.0248 0.3342 0.0933 0.4848 0.0196 0.34 0.1065 0.5551
1.2347 12.0 1284 1.2914 0.114 0.2345 0.0975 0.2238 0.1157 0.1198 0.1135 0.4098 0.4941 0.5333 0.3461 0.5214 0.2967 0.582 0.0365 0.3734 0.0878 0.5496 0.033 0.3769 0.116 0.5884
1.2347 13.0 1391 1.2971 0.1276 0.2576 0.115 0.0742 0.1371 0.1376 0.1431 0.4174 0.4908 0.2778 0.3695 0.5134 0.3022 0.5901 0.0589 0.3595 0.1094 0.5714 0.0399 0.3862 0.1277 0.5467
1.2347 14.0 1498 1.2865 0.1261 0.2526 0.1238 0.2737 0.1314 0.1335 0.1451 0.4131 0.4924 0.4556 0.3545 0.5167 0.2817 0.6032 0.0381 0.3633 0.1448 0.542 0.0458 0.3754 0.1201 0.5782
1.1962 15.0 1605 1.2636 0.1133 0.2255 0.1028 0.177 0.1201 0.1213 0.1229 0.3957 0.4991 0.4444 0.3547 0.5259 0.3056 0.5766 0.0305 0.357 0.0826 0.5562 0.0295 0.3969 0.1185 0.6089
1.1962 16.0 1712 1.2621 0.1225 0.2436 0.1101 0.1751 0.1179 0.1282 0.1194 0.424 0.5104 0.3667 0.3851 0.5341 0.2991 0.582 0.0368 0.3937 0.1276 0.5839 0.0274 0.3938 0.1215 0.5987
1.1962 17.0 1819 1.2575 0.1134 0.2228 0.103 0.2661 0.1192 0.1207 0.1168 0.4327 0.5074 0.4333 0.3504 0.5362 0.2773 0.5887 0.0337 0.4177 0.1106 0.5634 0.0263 0.3769 0.1191 0.5902
1.1962 18.0 1926 1.2579 0.1396 0.2539 0.136 0.2361 0.1246 0.1469 0.1634 0.4522 0.5309 0.4333 0.3661 0.5624 0.3251 0.5941 0.06 0.481 0.1185 0.5714 0.038 0.4385 0.1561 0.5693
1.1126 19.0 2033 1.2450 0.1353 0.2652 0.1277 0.2612 0.1217 0.1454 0.1354 0.4442 0.5224 0.4444 0.3859 0.5471 0.3129 0.5734 0.0564 0.4646 0.1203 0.6004 0.0523 0.4277 0.1348 0.5458
1.1126 20.0 2140 1.2278 0.1362 0.2649 0.1322 0.2935 0.1242 0.1435 0.1564 0.452 0.5258 0.3667 0.3525 0.5566 0.3109 0.605 0.05 0.457 0.1409 0.5844 0.038 0.4123 0.1409 0.5702
1.1126 21.0 2247 1.2046 0.1359 0.2631 0.1215 0.3752 0.1267 0.1432 0.1434 0.4576 0.5391 0.5222 0.4336 0.5596 0.3291 0.5955 0.0458 0.457 0.1223 0.5906 0.0447 0.4631 0.1377 0.5893
1.1126 22.0 2354 1.2224 0.1524 0.2793 0.1477 0.2993 0.133 0.1616 0.1557 0.4721 0.5387 0.5 0.365 0.5694 0.3378 0.6005 0.055 0.4873 0.1613 0.5777 0.0696 0.4585 0.1385 0.5693
1.1126 23.0 2461 1.1996 0.1568 0.2861 0.1499 0.2102 0.1397 0.1709 0.1636 0.4779 0.5574 0.3333 0.403 0.5883 0.3615 0.6108 0.0621 0.4646 0.1275 0.6076 0.0643 0.4892 0.1683 0.6147
1.0432 24.0 2568 1.2302 0.1552 0.2941 0.1441 0.2166 0.12 0.1671 0.1635 0.4638 0.5405 0.3444 0.3936 0.5716 0.3594 0.6239 0.0549 0.4506 0.1452 0.5714 0.0693 0.4892 0.1474 0.5676
1.0432 25.0 2675 1.1967 0.1747 0.3135 0.177 0.2256 0.1508 0.1863 0.1772 0.4987 0.562 0.3667 0.384 0.595 0.3741 0.6167 0.0693 0.5481 0.1844 0.6161 0.076 0.4415 0.1698 0.5876
1.0432 26.0 2782 1.1815 0.1576 0.2967 0.1497 0.3017 0.1551 0.1633 0.1453 0.4962 0.5588 0.4222 0.424 0.5855 0.3463 0.6023 0.0465 0.457 0.1508 0.633 0.0698 0.4969 0.1744 0.6049
1.0432 27.0 2889 1.1788 0.1561 0.2869 0.1427 0.3365 0.1197 0.1658 0.1492 0.4796 0.571 0.4667 0.4035 0.6024 0.3687 0.6257 0.0506 0.5177 0.1464 0.6379 0.0617 0.4615 0.153 0.612
1.0432 28.0 2996 1.1831 0.1634 0.298 0.1602 0.41 0.1289 0.1742 0.16 0.4992 0.5716 0.4889 0.388 0.6072 0.3625 0.6198 0.0638 0.481 0.1614 0.6379 0.0719 0.5292 0.1574 0.5902
0.9815 29.0 3103 1.1504 0.1819 0.3319 0.1842 0.385 0.1385 0.1991 0.1933 0.5125 0.5859 0.5444 0.4026 0.6205 0.3634 0.5968 0.1012 0.5392 0.1867 0.6326 0.069 0.5308 0.1889 0.6302
0.9815 30.0 3210 1.1551 0.1685 0.305 0.1678 0.2734 0.1439 0.1829 0.1764 0.5099 0.5807 0.4667 0.4089 0.6162 0.3566 0.6315 0.0858 0.5418 0.1558 0.6085 0.0651 0.5077 0.179 0.6138
0.9815 31.0 3317 1.1503 0.1716 0.3165 0.1654 0.2964 0.1458 0.1828 0.1714 0.5028 0.5738 0.5 0.4066 0.6053 0.3815 0.6176 0.0809 0.5291 0.1791 0.6509 0.0589 0.48 0.1575 0.5916
0.9815 32.0 3424 1.1930 0.1617 0.3028 0.1523 0.2053 0.15 0.1725 0.1466 0.5019 0.5698 0.4222 0.4119 0.601 0.3764 0.609 0.0664 0.5228 0.1473 0.6263 0.0669 0.52 0.1514 0.5711
0.9111 33.0 3531 1.1475 0.1843 0.3324 0.1749 0.2151 0.1673 0.1954 0.1782 0.518 0.5827 0.3667 0.4129 0.6159 0.3722 0.6095 0.0625 0.5139 0.2035 0.6429 0.0792 0.5215 0.2041 0.6258
0.9111 34.0 3638 1.1393 0.1896 0.3416 0.1848 0.2793 0.1843 0.1996 0.1779 0.5045 0.5834 0.4556 0.4326 0.6121 0.3853 0.6374 0.0859 0.557 0.188 0.6384 0.0964 0.4631 0.1922 0.6213
0.9111 35.0 3745 1.1390 0.1821 0.3296 0.1772 0.1976 0.1588 0.1951 0.1766 0.5242 0.5913 0.3778 0.4181 0.6268 0.3804 0.6239 0.0891 0.5519 0.1824 0.6348 0.08 0.5215 0.1787 0.6244
0.9111 36.0 3852 1.1436 0.1796 0.3259 0.1734 0.2158 0.1483 0.1927 0.1773 0.5039 0.5781 0.3889 0.4132 0.612 0.3821 0.6144 0.0908 0.5152 0.1612 0.6482 0.0841 0.4985 0.1799 0.6142
0.9111 37.0 3959 1.1582 0.1926 0.3435 0.1946 0.2217 0.1719 0.2054 0.1912 0.5207 0.5882 0.4 0.4268 0.6215 0.4011 0.6243 0.1066 0.5494 0.1681 0.6344 0.0878 0.5308 0.1993 0.6022
0.8415 38.0 4066 1.1340 0.1934 0.3428 0.188 0.2015 0.1754 0.2055 0.1922 0.5233 0.5914 0.3556 0.4282 0.6251 0.3868 0.6063 0.1029 0.5405 0.1725 0.6518 0.1214 0.5338 0.1834 0.6244
0.8415 39.0 4173 1.1374 0.1939 0.3408 0.1842 0.2191 0.1596 0.2085 0.1849 0.5219 0.5947 0.4111 0.4206 0.6303 0.3979 0.6261 0.0979 0.5342 0.1807 0.6571 0.113 0.5415 0.18 0.6147
0.8415 40.0 4280 1.1291 0.1993 0.3499 0.1909 0.2219 0.1538 0.217 0.1944 0.535 0.5949 0.4222 0.426 0.6303 0.3866 0.6194 0.1319 0.5367 0.1814 0.6536 0.0976 0.5369 0.1989 0.628
0.8415 41.0 4387 1.1614 0.2023 0.3533 0.2052 0.1967 0.176 0.2177 0.1885 0.5219 0.5903 0.3444 0.4128 0.6275 0.4135 0.6347 0.1297 0.543 0.1814 0.6469 0.0997 0.5369 0.1872 0.5902
0.8415 42.0 4494 1.1548 0.189 0.3374 0.1904 0.2249 0.1539 0.2037 0.183 0.5192 0.5862 0.4 0.4137 0.6217 0.3969 0.6171 0.0915 0.5038 0.1744 0.6353 0.0989 0.5569 0.1835 0.6178
0.7841 43.0 4601 1.1335 0.2184 0.3761 0.2232 0.2424 0.1704 0.2331 0.2047 0.5403 0.5983 0.4444 0.418 0.6347 0.4118 0.6216 0.1268 0.543 0.21 0.6536 0.143 0.5615 0.2002 0.6116
0.7841 44.0 4708 1.1404 0.2084 0.366 0.2102 0.3102 0.1644 0.2242 0.2008 0.5308 0.5908 0.4556 0.4021 0.6289 0.4013 0.6131 0.123 0.5354 0.1965 0.6478 0.1267 0.54 0.1944 0.6178
0.7841 45.0 4815 1.1449 0.2062 0.3577 0.2024 0.2299 0.1483 0.2249 0.1992 0.5339 0.5944 0.4222 0.405 0.6334 0.4039 0.6158 0.1361 0.5456 0.1846 0.6469 0.1132 0.5446 0.1933 0.6191
0.7841 46.0 4922 1.1400 0.2072 0.3586 0.2053 0.2425 0.1587 0.2246 0.1998 0.5361 0.5945 0.4222 0.4179 0.6313 0.4006 0.6194 0.1301 0.5481 0.1836 0.6379 0.1237 0.5369 0.1982 0.6302
0.7353 47.0 5029 1.1411 0.2068 0.3624 0.2035 0.2337 0.1474 0.2251 0.2036 0.5326 0.595 0.3889 0.4249 0.63 0.4014 0.6194 0.1261 0.543 0.1922 0.6536 0.1153 0.5431 0.1988 0.616
0.7353 48.0 5136 1.1374 0.2084 0.3613 0.2021 0.2473 0.1526 0.227 0.2025 0.5344 0.5959 0.3667 0.4298 0.6303 0.4052 0.6203 0.1197 0.557 0.1924 0.6504 0.1233 0.5369 0.2011 0.6151
0.7353 49.0 5243 1.1376 0.2062 0.3565 0.1993 0.2511 0.151 0.2239 0.1943 0.5358 0.6022 0.4222 0.4257 0.6381 0.4026 0.6203 0.12 0.5671 0.1868 0.6478 0.1275 0.5523 0.1941 0.6236
0.7353 50.0 5350 1.1358 0.2144 0.372 0.2115 0.2518 0.1576 0.2323 0.2051 0.5387 0.5982 0.4 0.4209 0.6355 0.4063 0.6149 0.127 0.5557 0.1935 0.6487 0.1375 0.5446 0.2079 0.6271
0.7353 51.0 5457 1.1373 0.2139 0.372 0.2107 0.2413 0.161 0.2322 0.2041 0.5384 0.6004 0.4222 0.4198 0.6373 0.4054 0.6194 0.1292 0.5557 0.1934 0.6513 0.1333 0.5446 0.2079 0.6311
0.6951 52.0 5564 1.1437 0.2146 0.375 0.2091 0.2376 0.1652 0.2326 0.2007 0.5317 0.5968 0.3778 0.4268 0.6326 0.4053 0.6113 0.1289 0.5443 0.1985 0.6527 0.134 0.5492 0.2065 0.6267
0.6951 53.0 5671 1.1379 0.2181 0.3803 0.2151 0.2481 0.1592 0.2357 0.2077 0.5359 0.5989 0.4333 0.4255 0.6346 0.4043 0.6162 0.1341 0.5532 0.2027 0.6504 0.1389 0.5477 0.2103 0.6271
0.6951 54.0 5778 1.1353 0.2166 0.3763 0.2097 0.25 0.1647 0.2338 0.2037 0.5376 0.5988 0.4333 0.4263 0.6338 0.4067 0.6203 0.126 0.543 0.1993 0.6522 0.1404 0.5508 0.2107 0.6276
0.6951 55.0 5885 1.1323 0.2189 0.3786 0.2139 0.2498 0.1584 0.2367 0.2038 0.5379 0.6029 0.4333 0.4258 0.6388 0.4089 0.6212 0.1319 0.5557 0.2011 0.6522 0.1423 0.5538 0.2102 0.6316
0.6951 56.0 5992 1.1332 0.2201 0.3802 0.2153 0.2497 0.1609 0.2388 0.202 0.5406 0.6045 0.4333 0.4292 0.6409 0.4053 0.6216 0.1385 0.5658 0.2017 0.654 0.1444 0.5492 0.2107 0.632
0.6751 57.0 6099 1.1343 0.2219 0.3832 0.2166 0.25 0.1581 0.241 0.2043 0.5418 0.6027 0.4333 0.428 0.6387 0.4054 0.6189 0.1386 0.5646 0.204 0.6545 0.1511 0.5477 0.2103 0.628
0.6751 58.0 6206 1.1348 0.2217 0.383 0.217 0.25 0.1584 0.2405 0.2038 0.5425 0.6031 0.4333 0.4272 0.6394 0.4062 0.6194 0.138 0.5658 0.2034 0.6545 0.1507 0.5462 0.2102 0.6298
0.6751 59.0 6313 1.1348 0.2219 0.3828 0.2171 0.25 0.1586 0.2409 0.2038 0.5432 0.6039 0.4333 0.4272 0.6403 0.407 0.6207 0.1384 0.5696 0.2036 0.654 0.1504 0.5462 0.2101 0.6289
0.6751 60.0 6420 1.1348 0.2218 0.3828 0.2171 0.25 0.1585 0.2409 0.2038 0.5442 0.6037 0.4333 0.4272 0.6401 0.4068 0.6207 0.1384 0.5684 0.2036 0.6545 0.1505 0.5462 0.2099 0.6289

Framework versions

  • Transformers 4.49.0
  • Pytorch 2.6.0+cu124
  • Datasets 3.3.2
  • Tokenizers 0.21.0
Downloads last month
127
Safetensors
Model size
43.5M params
Tensor type
F32
ยท
Inference Providers NEW
This model isn't deployed by any Inference Provider. ๐Ÿ™‹ Ask for provider support

Model tree for toukapy/detr_finetuned_cppe5

Unable to build the model tree, the base model loops to the model itself. Learn more.