데이터셋 업로드하신 방법에 대한 문의를 드리고 싶습니다.
우선 멋진 데이터셋 공유 감사드립니다 ^^
3M 개의 데이터셋을 처리해주셨으나 저는 4M 개 데이터셋을 쓰고 싶어서 이렇게 처리를 했는데
제꺼는 800GB 넘는 사이즈로 올라가고 parquet 파일도 1636 개나 올라가더라구요.
그래서 jp1924님이 데이터 처리 및 업로드 하신 방법을 혹시 알 수 있을까해서 이렇게 여쭤보게 되었습니다.
이 문제로 일주일동안 너무 고통받고 있어서 ㅜㅜ 혹시 실례가 되지 않는다면 힌트라도 던져주실 수 있으실까요?
감사합니다.
참고로 제가 사용한 코드는 아래와 같습니다.
from tqdm import tqdm
import jsonlines
from PIL import Image; Image.MAX_IMAGE_PIXELS = None
from datasets import Dataset, DatasetDict, concatenate_datasets
from huggingface_hub import login
import io
print("code start")
with jsonlines.open("multi_grained_text_localization.jsonl") as reader:
train_data_list = list(reader)
with jsonlines.open("struct_aware_parse.jsonl") as reader:
train_data_list2 = list(reader)
train_data_list.extend(train_data_list2)
print("train set read finish")
with jsonlines.open("val.jsonl") as reader:
val_data_list = list(reader)
print("validation set read finish")
def converter(input_data_list: list, description: str = "Processing") -> list:
converted_data_list = []
for data in tqdm(input_data_list, desc = description):
msg_list = []
for msg in data['messages']:
if msg["content"].startswith("<|image|>"):
msg_content = msg["content"].replace("<|image|>","")
cont_list = [
{
"index": 0,
"text": None,
"type": "image"
},
{
"index": None,
"text": msg_content,
"type": "text"
}
]
elif msg["content"].endswith("<|image|>"):
msg_content = msg["content"].replace("<|image|>","")
cont_list = [
{
"index": None,
"text": msg_content,
"type": "text"
},
{
"index": 0,
"text": None,
"type": "image"
}
]
else:
cont_list = [
{
"index": None,
"text": msg["content"],
"type": "text"
}
]
converted_msg = {
"content": cont_list,
"role": msg["role"]
}
msg_list.append(converted_msg)
with open(data["image"][0], 'rb') as img_file:
img_bytes = img_file.read()
converted_data = {
"messages": msg_list,
"images": [{'bytes': img_bytes, 'path': None}]
}
converted_data_list.append(converted_data)
del img_bytes
del msg_list
return converted_data_list
def batch_converter(input_data_list: list, batch_size: int = 50000, description: str = "Processing") -> Dataset:
"""
to avoid the following error.
OSError: [Errno 24] Too many open files:
"""
final_dataset = None
# 배치 단위로 처리
for i in range(0, len(input_data_list), batch_size):
batch = input_data_list[i:i + batch_size]
batch_converted = converter(batch, f"{description} batch {i//batch_size + 1}")
print("from_list start!")
batch_dataset = Dataset.from_list(batch_converted)
print("let's concatenate!")
if final_dataset is None:
final_dataset = batch_dataset
else:
final_dataset = concatenate_datasets([final_dataset, batch_dataset])
del batch_converted
del batch_dataset
import gc
gc.collect()
print(f"Processed {min(i + batch_size, len(input_data_list))}/{len(input_data_list)} items")
return final_dataset
val_list = converter(val_data_list, "val set")
val_dataset = Dataset.from_list(val_list)
train_dataset = batch_converter(train_data_list, batch_size=50000, description="train set")
dataset_dict = DatasetDict({
'train': train_dataset,
'validation': val_dataset
})
dataset_dict.push_to_hub('Ryoo72/DocStruct4M')
jp1924/HF_builders/src/Vision/DocStruct4M.py코드를 참고해 주세요
@Ryoo72 님이 참여하신 프로젝트 특성 상 무조건 4M만 사용해야만 하는 상황인 것 같네요.
왜 굳이 4M에서 3M으로 줄였냐면
apache Arrow에 담을 수 있는 데이터 용량에 한계가 존재합니다.
문젠 DocStruct 4M에 특히 InfographicsVQA쪽에 Arrow으론 처리하기 힘들 정도의 높은 용량의 데이터가 많습니다.
그래서 dataset을 build하는 과정에서 arrow단에서 overflow에러가 굉장히 빈번하게 발생하구요.
특히 hub에 upload할때도 샤딩된 arrow파일에서 많은 문제가 발생하게 됩니다.
그래서 고용량 이미지는 따로 필터링 하게 되었습니다.
PIL에서 불러올 때 DecompressionBombWarning
이란 경고문이 뜨는데 그걸 참고해 데이터셋에 포함시킬 데이터와 그렇지 않은 데이터를 분간 했습니다.
DocStruct4M.py#L174-L181
이런 점을 참고해 작업을 하셨음 좋겠습니다.
제꺼는 800GB 넘는 사이즈로 올라가고 parquet 파일도 1636 개나 올라가더라구요.
라 말씀해 주셨는데 그건 dataset_build.py#L17-L24 구간의 코드를 참고해 보세요max_shard_size
의 기본 값이 500MB
입니다.
대단히 감사합니다.. 정말 좋은 분이시군요.
대용량 이미지 데이터셋은 다루기 정말 어렵네요 ㅜ
다시한번 감사합니다..!