chickens-repro-microsoft

This model is a fine-tuned version of microsoft/conditional-detr-resnet-50 on an unknown dataset. It achieves the following results on the evaluation set:

  • Loss: 0.2586

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 1e-05
  • train_batch_size: 2
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: cosine
  • num_epochs: 300

Training results

Training Loss Epoch Step Validation Loss
2.4109 1.0 227 2.4034
2.2402 2.0 454 2.2034
2.0419 3.0 681 1.9152
1.805 4.0 908 1.7156
1.7492 5.0 1135 1.6649
1.6458 6.0 1362 1.4887
1.5517 7.0 1589 1.5056
1.5305 8.0 1816 1.4455
1.5327 9.0 2043 1.4273
1.4153 10.0 2270 1.3496
1.3915 11.0 2497 1.3452
1.3789 12.0 2724 1.3291
1.3751 13.0 2951 1.4351
1.3069 14.0 3178 1.2104
1.4149 15.0 3405 1.1756
1.2389 16.0 3632 1.1699
1.3693 17.0 3859 1.2906
1.2736 18.0 4086 1.1892
1.1988 19.0 4313 1.0570
1.2334 20.0 4540 1.0967
1.1576 21.0 4767 1.1222
1.122 22.0 4994 1.0020
1.1174 23.0 5221 0.9732
1.0266 24.0 5448 0.9493
1.0779 25.0 5675 0.9727
1.1053 26.0 5902 1.0301
1.0409 27.0 6129 1.1059
1.0385 28.0 6356 0.9212
1.0568 29.0 6583 0.9122
0.9826 30.0 6810 0.9585
1.02 31.0 7037 0.9483
0.958 32.0 7264 0.9547
0.9858 33.0 7491 0.8586
0.9555 34.0 7718 1.0204
0.9254 35.0 7945 1.2116
0.8585 36.0 8172 0.8202
0.8685 37.0 8399 0.8469
0.8025 38.0 8626 0.9344
0.891 39.0 8853 0.7926
0.8625 40.0 9080 0.7173
0.78 41.0 9307 0.6745
0.7687 42.0 9534 0.6420
0.8027 43.0 9761 0.6933
0.7005 44.0 9988 0.7224
0.7672 45.0 10215 0.6985
0.7564 46.0 10442 0.6271
0.7151 47.0 10669 0.6797
0.6617 48.0 10896 0.5692
0.6727 49.0 11123 0.5981
0.652 50.0 11350 0.5905
0.6275 51.0 11577 0.7143
0.6262 52.0 11804 0.4990
0.5776 53.0 12031 0.6481
0.595 54.0 12258 0.5355
0.5908 55.0 12485 0.4665
0.6257 56.0 12712 0.4817
0.5804 57.0 12939 0.4787
0.5485 58.0 13166 0.4573
0.5513 59.0 13393 0.5067
0.5455 60.0 13620 0.4338
0.5643 61.0 13847 0.4747
0.5597 62.0 14074 0.4625
0.5142 63.0 14301 0.4325
0.4881 64.0 14528 0.4350
0.5078 65.0 14755 0.4493
0.4868 66.0 14982 0.5610
0.4949 67.0 15209 0.5126
0.4731 68.0 15436 0.5082
0.465 69.0 15663 0.5526
0.4757 70.0 15890 0.4630
0.4453 71.0 16117 0.4211
0.4707 72.0 16344 0.4194
0.473 73.0 16571 0.4326
0.48 74.0 16798 0.4607
0.4486 75.0 17025 0.4671
0.4639 76.0 17252 0.4319
0.4055 77.0 17479 0.4187
0.3989 78.0 17706 0.4486
0.4791 79.0 17933 0.3904
0.4067 80.0 18160 0.3696
0.4004 81.0 18387 0.3926
0.4214 82.0 18614 0.4291
0.3787 83.0 18841 0.3617
0.4468 84.0 19068 0.4594
0.3884 85.0 19295 0.4059
0.3922 86.0 19522 0.3864
0.3704 87.0 19749 0.3659
0.3923 88.0 19976 0.3208
0.3675 89.0 20203 0.3521
0.3546 90.0 20430 0.4677
0.3619 91.0 20657 0.3226
0.3658 92.0 20884 0.3382
0.3513 93.0 21111 0.3587
0.3435 94.0 21338 0.3460
0.3485 95.0 21565 0.3833
0.3419 96.0 21792 0.3822
0.379 97.0 22019 0.3022
0.3374 98.0 22246 0.3207
0.3408 99.0 22473 0.3857
0.3521 100.0 22700 0.3044
0.3382 101.0 22927 0.3438
0.3611 102.0 23154 0.3018
0.3322 103.0 23381 0.3128
0.3157 104.0 23608 0.3214
0.311 105.0 23835 0.3339
0.3333 106.0 24062 0.3229
0.3126 107.0 24289 0.3601
0.3218 108.0 24516 0.3378
0.3116 109.0 24743 0.3214
0.3134 110.0 24970 0.2812
0.3218 111.0 25197 0.3435
0.3231 112.0 25424 0.3431
0.3309 113.0 25651 0.2969
0.3133 114.0 25878 0.3589
0.3091 115.0 26105 0.2857
0.3149 116.0 26332 0.3523
0.2893 117.0 26559 0.3081
0.2859 118.0 26786 0.2942
0.2898 119.0 27013 0.2846
0.2827 120.0 27240 0.3218
0.327 121.0 27467 0.3179
0.2804 122.0 27694 0.2789
0.2958 123.0 27921 0.3487
0.2641 124.0 28148 0.3064
0.2709 125.0 28375 0.3535
0.2996 126.0 28602 0.3367
0.2606 127.0 28829 0.3378
0.2813 128.0 29056 0.3075
0.2658 129.0 29283 0.2700
0.2799 130.0 29510 0.2704
0.2845 131.0 29737 0.3011
0.2687 132.0 29964 0.2576
0.2634 133.0 30191 0.2871
0.2739 134.0 30418 0.2801
0.2689 135.0 30645 0.2944
0.2512 136.0 30872 0.3056
0.2543 137.0 31099 0.2797
0.2548 138.0 31326 0.3051
0.2454 139.0 31553 0.3302
0.2562 140.0 31780 0.2624
0.255 141.0 32007 0.2975
0.2605 142.0 32234 0.2809
0.242 143.0 32461 0.2890
0.255 144.0 32688 0.2973
0.2509 145.0 32915 0.2518
0.263 146.0 33142 0.2676
0.2713 147.0 33369 0.2640
0.2524 148.0 33596 0.3073
0.2578 149.0 33823 0.2846
0.2449 150.0 34050 0.2732
0.2426 151.0 34277 0.2775
0.2496 152.0 34504 0.2920
0.2452 153.0 34731 0.2702
0.2431 154.0 34958 0.2919
0.2402 155.0 35185 0.2837
0.2307 156.0 35412 0.2959
0.2392 157.0 35639 0.2896
0.2545 158.0 35866 0.2909
0.2393 159.0 36093 0.2820
0.2459 160.0 36320 0.2802
0.2251 161.0 36547 0.2454
0.2461 162.0 36774 0.2734
0.2297 163.0 37001 0.3074
0.2174 164.0 37228 0.2656
0.2384 165.0 37455 0.3121
0.2232 166.0 37682 0.2898
0.2364 167.0 37909 0.2479
0.2159 168.0 38136 0.3402
0.2247 169.0 38363 0.3425
0.2451 170.0 38590 0.2661
0.2158 171.0 38817 0.2600
0.2217 172.0 39044 0.3191
0.2135 173.0 39271 0.2849
0.2202 174.0 39498 0.2929
0.2258 175.0 39725 0.2894
0.2023 176.0 39952 0.2803
0.2162 177.0 40179 0.2645
0.2076 178.0 40406 0.2934
0.212 179.0 40633 0.2947
0.2227 180.0 40860 0.3018
0.2046 181.0 41087 0.2609
0.2229 182.0 41314 0.2675
0.219 183.0 41541 0.2583
0.2081 184.0 41768 0.2682
0.2254 185.0 41995 0.2820
0.2194 186.0 42222 0.2458
0.2225 187.0 42449 0.2581
0.2184 188.0 42676 0.2626
0.2121 189.0 42903 0.2637
0.223 190.0 43130 0.2661
0.2 191.0 43357 0.2905
0.2048 192.0 43584 0.2870
0.1999 193.0 43811 0.2673
0.2051 194.0 44038 0.2590
0.2041 195.0 44265 0.2854
0.1979 196.0 44492 0.2700
0.1927 197.0 44719 0.2959
0.1978 198.0 44946 0.2575
0.1899 199.0 45173 0.2575
0.2024 200.0 45400 0.2892
0.1975 201.0 45627 0.2550
0.1972 202.0 45854 0.2658
0.1975 203.0 46081 0.2522
0.2063 204.0 46308 0.2563
0.2055 205.0 46535 0.2676
0.1982 206.0 46762 0.2927
0.1913 207.0 46989 0.2641
0.1998 208.0 47216 0.2581
0.1865 209.0 47443 0.2468
0.1959 210.0 47670 0.2503
0.1943 211.0 47897 0.2840
0.1852 212.0 48124 0.2483
0.2042 213.0 48351 0.2929
0.1883 214.0 48578 0.2570
0.1973 215.0 48805 0.2698
0.1979 216.0 49032 0.2453
0.1853 217.0 49259 0.2681
0.1963 218.0 49486 0.2563
0.1912 219.0 49713 0.2626
0.1874 220.0 49940 0.2650
0.1928 221.0 50167 0.2669
0.1866 222.0 50394 0.2722
0.2024 223.0 50621 0.2479
0.1974 224.0 50848 0.2366
0.199 225.0 51075 0.2610
0.1776 226.0 51302 0.2731
0.1845 227.0 51529 0.2570
0.19 228.0 51756 0.2824
0.1879 229.0 51983 0.2824
0.184 230.0 52210 0.2682
0.1843 231.0 52437 0.2337
0.1964 232.0 52664 0.2566
0.1833 233.0 52891 0.2661
0.1969 234.0 53118 0.2537
0.1907 235.0 53345 0.2642
0.1884 236.0 53572 0.2643
0.172 237.0 53799 0.2599
0.1949 238.0 54026 0.2597
0.1724 239.0 54253 0.2499
0.1747 240.0 54480 0.2573
0.1795 241.0 54707 0.2607
0.181 242.0 54934 0.2373
0.1682 243.0 55161 0.2668
0.1815 244.0 55388 0.2737
0.1799 245.0 55615 0.2684
0.1695 246.0 55842 0.2602
0.1738 247.0 56069 0.2671
0.1694 248.0 56296 0.2670
0.1819 249.0 56523 0.2673
0.1866 250.0 56750 0.2458
0.1897 251.0 56977 0.2724
0.185 252.0 57204 0.2593
0.1805 253.0 57431 0.2558
0.1781 254.0 57658 0.2680
0.1889 255.0 57885 0.2614
0.1814 256.0 58112 0.2653
0.1909 257.0 58339 0.2642
0.1845 258.0 58566 0.2561
0.1698 259.0 58793 0.2563
0.1701 260.0 59020 0.2616
0.1869 261.0 59247 0.2557
0.1899 262.0 59474 0.2548
0.1737 263.0 59701 0.2635
0.1757 264.0 59928 0.2580
0.1808 265.0 60155 0.2525
0.1776 266.0 60382 0.2613
0.1752 267.0 60609 0.2572
0.1701 268.0 60836 0.2606
0.183 269.0 61063 0.2639
0.183 270.0 61290 0.2620
0.1727 271.0 61517 0.2582
0.1714 272.0 61744 0.2592
0.1695 273.0 61971 0.2565
0.1779 274.0 62198 0.2630
0.1906 275.0 62425 0.2630
0.1785 276.0 62652 0.2545
0.184 277.0 62879 0.2496
0.1738 278.0 63106 0.2648
0.1669 279.0 63333 0.2553
0.1719 280.0 63560 0.2595
0.1762 281.0 63787 0.2633
0.1799 282.0 64014 0.2573
0.1776 283.0 64241 0.2569
0.1667 284.0 64468 0.2545
0.1741 285.0 64695 0.2562
0.168 286.0 64922 0.2579
0.1799 287.0 65149 0.2562
0.1758 288.0 65376 0.2560
0.1782 289.0 65603 0.2554
0.1718 290.0 65830 0.2590
0.1672 291.0 66057 0.2597
0.1681 292.0 66284 0.2595
0.1764 293.0 66511 0.2596
0.1744 294.0 66738 0.2586
0.18 295.0 66965 0.2587
0.1731 296.0 67192 0.2584
0.1884 297.0 67419 0.2585
0.1743 298.0 67646 0.2586
0.1753 299.0 67873 0.2586
0.1715 300.0 68100 0.2586

Framework versions

  • Transformers 4.45.1
  • Pytorch 2.4.1+cu121
  • Datasets 2.19.2
  • Tokenizers 0.20.0
Downloads last month
14
Safetensors
Model size
43.5M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for joe611/chickens-repro-microsoft

Finetuned
(49)
this model