jmercat commited on
Commit
1591d77
·
verified ·
1 Parent(s): 7082bb7

Upload folder using huggingface_hub

Browse files
Files changed (4) hide show
  1. README.md +12 -0
  2. config.json +31 -0
  3. config.yaml +202 -0
  4. model.safetensors +3 -0
README.md ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ library_name: lerobot
3
+ tags:
4
+ - mbm
5
+ - model_hub_mixin
6
+ - pytorch_model_hub_mixin
7
+ - robotics
8
+ ---
9
+
10
+ This model has been pushed to the Hub using the [PytorchModelHubMixin](https://huggingface.co/docs/huggingface_hub/package_reference/mixins#huggingface_hub.PyTorchModelHubMixin) integration:
11
+ - Library: https://github.com/huggingface/lerobot
12
+ - Docs: [More Information Needed]
config.json ADDED
@@ -0,0 +1,31 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "chunk_size": 100,
3
+ "freeze_pretrained": true,
4
+ "input_shapes": {
5
+ "observation.images.phone": [
6
+ 3,
7
+ 480,
8
+ 640
9
+ ],
10
+ "observation.state": [
11
+ 6
12
+ ]
13
+ },
14
+ "n_action_steps": 100,
15
+ "n_obs_steps": 1,
16
+ "num_image_tokens": 729,
17
+ "open_lm_config": [
18
+ "--model",
19
+ "79m",
20
+ "--torchcompile",
21
+ "--qk-norm"
22
+ ],
23
+ "output_shapes": {
24
+ "action": [
25
+ 6
26
+ ]
27
+ },
28
+ "pretrained_backbone_weights": null,
29
+ "tokenizer_name": "EleutherAI/gpt-neox-20b",
30
+ "vision_backbone": "siglip"
31
+ }
config.yaml ADDED
@@ -0,0 +1,202 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ resume: false
2
+ device: cuda
3
+ use_amp: false
4
+ seed: 1000
5
+ dataset_repo_id: jmercat/koch_feed_cat_2
6
+ video_backend: pyav
7
+ training:
8
+ offline_steps: 8000
9
+ num_workers: 4
10
+ batch_size: 8
11
+ eval_freq: -1
12
+ log_freq: 100
13
+ save_checkpoint: true
14
+ save_freq: 800
15
+ online_steps: 0
16
+ online_rollout_n_episodes: 1
17
+ online_rollout_batch_size: 1
18
+ online_steps_between_rollouts: 1
19
+ online_sampling_ratio: 0.5
20
+ online_env_seed: null
21
+ online_buffer_capacity: null
22
+ online_buffer_seed_size: 0
23
+ do_online_rollout_async: false
24
+ image_transforms:
25
+ enable: false
26
+ max_num_transforms: 3
27
+ random_order: false
28
+ brightness:
29
+ weight: 1
30
+ min_max:
31
+ - 0.8
32
+ - 1.2
33
+ contrast:
34
+ weight: 1
35
+ min_max:
36
+ - 0.8
37
+ - 1.2
38
+ saturation:
39
+ weight: 1
40
+ min_max:
41
+ - 0.5
42
+ - 1.5
43
+ hue:
44
+ weight: 1
45
+ min_max:
46
+ - -0.05
47
+ - 0.05
48
+ sharpness:
49
+ weight: 1
50
+ min_max:
51
+ - 0.8
52
+ - 1.2
53
+ lr_scheduler: cosine
54
+ lr: 1.0e-05
55
+ lr_backbone: 1.0e-05
56
+ lr_warmup_steps: 500
57
+ adam_betas:
58
+ - 0.95
59
+ - 0.999
60
+ adam_eps: 1.0e-08
61
+ adam_weight_decay: 0.001
62
+ weight_decay: 0.0001
63
+ grad_clip_norm: 10
64
+ delta_timestamps:
65
+ action:
66
+ - 0.0
67
+ - 0.03333333333333333
68
+ - 0.06666666666666667
69
+ - 0.1
70
+ - 0.13333333333333333
71
+ - 0.16666666666666666
72
+ - 0.2
73
+ - 0.23333333333333334
74
+ - 0.26666666666666666
75
+ - 0.3
76
+ - 0.3333333333333333
77
+ - 0.36666666666666664
78
+ - 0.4
79
+ - 0.43333333333333335
80
+ - 0.4666666666666667
81
+ - 0.5
82
+ - 0.5333333333333333
83
+ - 0.5666666666666667
84
+ - 0.6
85
+ - 0.6333333333333333
86
+ - 0.6666666666666666
87
+ - 0.7
88
+ - 0.7333333333333333
89
+ - 0.7666666666666667
90
+ - 0.8
91
+ - 0.8333333333333334
92
+ - 0.8666666666666667
93
+ - 0.9
94
+ - 0.9333333333333333
95
+ - 0.9666666666666667
96
+ - 1.0
97
+ - 1.0333333333333334
98
+ - 1.0666666666666667
99
+ - 1.1
100
+ - 1.1333333333333333
101
+ - 1.1666666666666667
102
+ - 1.2
103
+ - 1.2333333333333334
104
+ - 1.2666666666666666
105
+ - 1.3
106
+ - 1.3333333333333333
107
+ - 1.3666666666666667
108
+ - 1.4
109
+ - 1.4333333333333333
110
+ - 1.4666666666666666
111
+ - 1.5
112
+ - 1.5333333333333334
113
+ - 1.5666666666666667
114
+ - 1.6
115
+ - 1.6333333333333333
116
+ - 1.6666666666666667
117
+ - 1.7
118
+ - 1.7333333333333334
119
+ - 1.7666666666666666
120
+ - 1.8
121
+ - 1.8333333333333333
122
+ - 1.8666666666666667
123
+ - 1.9
124
+ - 1.9333333333333333
125
+ - 1.9666666666666666
126
+ - 2.0
127
+ - 2.033333333333333
128
+ - 2.066666666666667
129
+ - 2.1
130
+ - 2.1333333333333333
131
+ - 2.1666666666666665
132
+ - 2.2
133
+ - 2.2333333333333334
134
+ - 2.2666666666666666
135
+ - 2.3
136
+ - 2.3333333333333335
137
+ - 2.3666666666666667
138
+ - 2.4
139
+ - 2.433333333333333
140
+ - 2.466666666666667
141
+ - 2.5
142
+ - 2.533333333333333
143
+ - 2.566666666666667
144
+ - 2.6
145
+ - 2.6333333333333333
146
+ - 2.6666666666666665
147
+ - 2.7
148
+ - 2.7333333333333334
149
+ - 2.7666666666666666
150
+ - 2.8
151
+ - 2.8333333333333335
152
+ - 2.8666666666666667
153
+ - 2.9
154
+ - 2.933333333333333
155
+ - 2.966666666666667
156
+ - 3.0
157
+ - 3.033333333333333
158
+ - 3.066666666666667
159
+ - 3.1
160
+ - 3.1333333333333333
161
+ - 3.1666666666666665
162
+ - 3.2
163
+ - 3.2333333333333334
164
+ - 3.2666666666666666
165
+ - 3.3
166
+ eval:
167
+ n_episodes: 5
168
+ batch_size: 5
169
+ use_async_envs: false
170
+ wandb:
171
+ enable: true
172
+ disable_artifact: false
173
+ project: lerobot
174
+ notes: ''
175
+ fps: 30
176
+ env:
177
+ name: real_world
178
+ task: null
179
+ state_dim: 6
180
+ action_dim: 6
181
+ fps: ${fps}
182
+ policy:
183
+ name: mbm
184
+ n_obs_steps: 1
185
+ chunk_size: 100
186
+ n_action_steps: 100
187
+ freeze_pretrained: true
188
+ input_shapes:
189
+ observation.images.phone:
190
+ - 3
191
+ - 480
192
+ - 640
193
+ observation.state:
194
+ - ${env.state_dim}
195
+ output_shapes:
196
+ action:
197
+ - ${env.action_dim}
198
+ open_lm_config:
199
+ - --model
200
+ - 79m
201
+ - --torchcompile
202
+ - --qk-norm
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:ce162965a33216ab955503e56b843b4b86ad7932fecd997d9ea6696ffa06ac49
3
+ size 2127564648