|
from loguru import logger |
|
import pandas as pd |
|
from dask import delayed |
|
import dask.dataframe as dd |
|
from dask.diagnostics import ProgressBar |
|
import os |
|
import traceback |
|
import numpy as np |
|
|
|
logger.remove() |
|
logger.add(lambda msg: print(msg, end=""), level="INFO") |
|
|
|
def calculate_dollar_directions(df): |
|
try: |
|
logger.info("Calculando 'trade_dollar', 'price_change' e 'dollar_direction'") |
|
df['trade_dollar'] = df['price'] * df['qty'] |
|
df['price_change'] = df['price'].diff().fillna(0) |
|
df['dollar_direction'] = df['price_change'].apply( |
|
lambda x: 1 if x > 0 else (-1 if x < 0 else 0) |
|
).astype(int) |
|
logger.info("'dollar_directions' calculadas com sucesso") |
|
return df |
|
except KeyError as e: |
|
logger.error(f"Erro ao calcular 'dollar_directions': {e}") |
|
return df |
|
except Exception as e: |
|
logger.error(f"Erro inesperado ao calcular 'dollar_directions': {e}") |
|
return df |
|
|
|
def calculate_dollar_imbalance(df): |
|
try: |
|
logger.info("Calculando 'trade_dollar', 'dollar_side' e 'dollar_imbalance'") |
|
df['trade_dollar'] = df['price'] * df['qty'] |
|
df['dollar_side'] = df['isBuyerMaker'].map({True: -1, False: 1}) |
|
df['dollar_imbalance'] = df['trade_dollar'] * df['dollar_side'] |
|
logger.info("'dollar_imbalance' calculadas com sucesso") |
|
return df |
|
except KeyError as e: |
|
logger.error(f"Erro ao calcular 'dollar_imbalance': {e}") |
|
return df |
|
except Exception as e: |
|
logger.error(f"Erro inesperado ao calcular 'dollar_imbalance': {e}") |
|
return df |
|
|
|
def check_column_types(df, expected_types, file): |
|
for column, expected in expected_types.items(): |
|
if column not in df.columns: |
|
logger.error(f"A coluna '{column}' está ausente no arquivo {file}.") |
|
return False |
|
|
|
actual_dtype = df[column].dtype |
|
|
|
if expected == int: |
|
if not np.issubdtype(actual_dtype, np.integer): |
|
logger.error(f"A coluna '{column}' possui tipo de dado inesperado: {actual_dtype}, esperado: int") |
|
return False |
|
elif expected == float: |
|
if not np.issubdtype(actual_dtype, np.floating): |
|
logger.error(f"A coluna '{column}' possui tipo de dado inesperado: {actual_dtype}, esperado: float") |
|
return False |
|
elif expected == str: |
|
if not (np.issubdtype(actual_dtype, np.object_) or np.issubdtype(actual_dtype, np.str_)): |
|
logger.error(f"A coluna '{column}' possui tipo de dado inesperado: {actual_dtype}, esperado: str") |
|
return False |
|
elif expected == bool: |
|
if not np.issubdtype(actual_dtype, np.bool_): |
|
logger.error(f"A coluna '{column}' possui tipo de dado inesperado: {actual_dtype}, esperado: bool") |
|
return False |
|
elif expected == pd.Timestamp: |
|
if not np.issubdtype(actual_dtype, np.datetime64): |
|
logger.error(f"A coluna '{column}' possui tipo de dado inesperado: {actual_dtype}, esperado: datetime64") |
|
return False |
|
else: |
|
logger.error(f"Tipo esperado não reconhecido para a coluna '{column}': {expected}") |
|
return False |
|
return True |
|
|
|
def create_dollar_bars(df, dollar_threshold, output_path): |
|
if os.path.exists(output_path): |
|
logger.info(f"'dollar_bars' já existe. Carregando de {output_path}...") |
|
dollar_bars = dd.read_parquet(output_path).compute() |
|
logger.info("'dollar_bars' carregado com sucesso.") |
|
else: |
|
logger.info("Criando 'dollar_bars'...") |
|
with ProgressBar(): |
|
|
|
df = df.assign(trade_dollar=df['price'] * df['qty']) |
|
|
|
|
|
df = df.assign(cumulative_dollar=df['trade_dollar'].cumsum()) |
|
|
|
|
|
df = df.assign(bar_number=(df['cumulative_dollar'] // dollar_threshold).astype(int)) |
|
|
|
|
|
grouped = df.groupby('bar_number').agg( |
|
trade_count=('trade_id', 'count'), |
|
price_open=('price', 'first'), |
|
price_high=('price', 'max'), |
|
price_low=('price', 'min'), |
|
price_close=('price', 'last'), |
|
qty_sum=('qty', 'sum'), |
|
quoteQty_sum=('quoteQty', 'sum'), |
|
time=('time', 'max'), |
|
isBuyerMaker_avg=('isBuyerMaker', 'mean'), |
|
isBestMatch_avg=('isBestMatch', 'mean') |
|
) |
|
|
|
|
|
grouped.to_parquet(output_path, engine='pyarrow', compression='snappy') |
|
|
|
logger.info("'dollar_bars' criado e salvo com sucesso.") |
|
|
|
dollar_bars = dd.read_parquet(output_path).compute() |
|
|
|
return dollar_bars |
|
|
|
@delayed |
|
def process_file_run_bars(file, dollar_threshold, max_records): |
|
try: |
|
df = pd.read_parquet(file) |
|
logger.info(f"Processando arquivo: {file}") |
|
logger.info(f"Colunas disponíveis: {df.columns.tolist()}") |
|
|
|
|
|
expected_types = { |
|
'price': float, |
|
'qty': float, |
|
'trade_id': int, |
|
'isBuyerMaker': bool, |
|
'isBestMatch': bool, |
|
'time': pd.Timestamp |
|
} |
|
|
|
|
|
if not check_column_types(df, expected_types, file): |
|
logger.error(f"Tipos de colunas inválidos no arquivo {file}. Pulando processamento.") |
|
return pd.DataFrame() |
|
|
|
|
|
if not np.issubdtype(df['time'].dtype, np.datetime64): |
|
logger.info(f"Convertendo coluna 'time' para datetime no arquivo {file}") |
|
df['time'] = pd.to_datetime(df['time'], unit='s', errors='coerce') |
|
if df['time'].isnull().any(): |
|
logger.error(f"Falha na conversão da coluna 'time' para datetime no arquivo {file}.") |
|
return pd.DataFrame() |
|
|
|
|
|
if len(df) < 2: |
|
logger.warning(f"O arquivo {file} possui menos de duas linhas. Pulando processamento.") |
|
return pd.DataFrame() |
|
|
|
|
|
df = calculate_dollar_directions(df) |
|
|
|
|
|
if 'price_change' not in df.columns: |
|
logger.error(f"A coluna 'price_change' não foi criada no arquivo {file}.") |
|
return pd.DataFrame() |
|
|
|
|
|
df['direction_change'] = (df['dollar_direction'] != df['dollar_direction'].shift()).cumsum() |
|
df['cumulative_dollar'] = df.groupby('direction_change')['trade_dollar'].cumsum() |
|
df['bar_number'] = (df['cumulative_dollar'] // dollar_threshold).astype(int) + (df['direction_change'] * 1e6).astype(int) |
|
|
|
|
|
df = df.head(max_records) |
|
|
|
|
|
grouped = df.groupby('bar_number').agg( |
|
trade_count=('trade_id', 'count'), |
|
price_open=('price', 'first'), |
|
price_high=('price', 'max'), |
|
price_low=('price', 'min'), |
|
price_close=('price', 'last'), |
|
qty_sum=('qty', 'sum'), |
|
quoteQty_sum=('quoteQty', 'sum'), |
|
time=('time', 'max'), |
|
isBuyerMaker_avg=('isBuyerMaker', 'mean'), |
|
isBestMatch_avg=('isBestMatch', 'mean') |
|
).reset_index(drop=True) |
|
|
|
logger.info(f"Arquivo {file} processado com sucesso.") |
|
return grouped |
|
except Exception as e: |
|
logger.error(f"Erro ao processar o arquivo {file}: {e}") |
|
logger.error(traceback.format_exc()) |
|
return pd.DataFrame() |
|
|
|
def create_dollar_run_bars(dataset_path, dollar_threshold, output_path, max_records): |
|
if os.path.exists(output_path): |
|
logger.info(f"'dollar_run_bars' já existe. Carregando de {output_path}...") |
|
dollar_run_bars = dd.read_parquet(output_path).compute() |
|
logger.info("'dollar_run_bars' carregado com sucesso.") |
|
else: |
|
logger.info("Criando 'dollar_run_bars'...") |
|
|
|
parquet_files = [os.path.join(dataset_path, f) for f in os.listdir(dataset_path) if f.endswith('.parquet')] |
|
parquet_files.sort() |
|
|
|
|
|
total_records = 0 |
|
limited_files = [] |
|
records_per_file = {} |
|
|
|
|
|
for file in parquet_files: |
|
df_temp = pd.read_parquet(file) |
|
num_records = len(df_temp) |
|
if total_records + num_records <= max_records: |
|
limited_files.append(file) |
|
records_per_file[file] = num_records |
|
total_records += num_records |
|
else: |
|
remaining = max_records - total_records |
|
if remaining > 0: |
|
limited_files.append(file) |
|
records_per_file[file] = remaining |
|
total_records += remaining |
|
break |
|
if total_records >= max_records: |
|
break |
|
|
|
if not limited_files: |
|
logger.warning("Nenhum arquivo para processar dentro do limite de registros.") |
|
return pd.DataFrame() |
|
|
|
logger.info(f"Total de registros a serem processados: {total_records}") |
|
|
|
|
|
delayed_dfs = [process_file_run_bars(file, dollar_threshold, records_per_file[file]) for file in limited_files] |
|
|
|
|
|
with ProgressBar(): |
|
run_bars_dask = dd.from_delayed(delayed_dfs) |
|
dollar_run_bars = run_bars_dask.compute() |
|
|
|
|
|
if not dollar_run_bars.empty: |
|
|
|
dollar_run_bars.to_parquet(output_path, engine='pyarrow', compression='snappy') |
|
logger.info("'dollar_run_bars' criado e salvo com sucesso.") |
|
else: |
|
logger.warning("'dollar_run_bars' está vazio. Nenhum dado foi salvo.") |
|
|
|
return dollar_run_bars |
|
|
|
@delayed |
|
def process_file_imbalance_bars(file, dollar_threshold, max_records): |
|
try: |
|
df = pd.read_parquet(file) |
|
logger.info(f"Processando arquivo: {file}") |
|
logger.info(f"Colunas disponíveis: {df.columns.tolist()}") |
|
|
|
|
|
expected_types = { |
|
'price': float, |
|
'qty': float, |
|
'trade_id': int, |
|
'isBuyerMaker': bool, |
|
'isBestMatch': bool, |
|
'time': pd.Timestamp |
|
} |
|
|
|
|
|
if not check_column_types(df, expected_types, file): |
|
logger.error(f"Tipos de colunas inválidos no arquivo {file}. Pulando processamento.") |
|
return pd.DataFrame() |
|
|
|
|
|
if not np.issubdtype(df['time'].dtype, np.datetime64): |
|
logger.info(f"Convertendo coluna 'time' para datetime no arquivo {file}") |
|
df['time'] = pd.to_datetime(df['time'], unit='s', errors='coerce') |
|
if df['time'].isnull().any(): |
|
logger.error(f"Falha na conversão da coluna 'time' para datetime no arquivo {file}.") |
|
return pd.DataFrame() |
|
|
|
|
|
if len(df) < 1: |
|
logger.warning(f"O arquivo {file} está vazio. Pulando processamento.") |
|
return pd.DataFrame() |
|
|
|
|
|
df = calculate_dollar_imbalance(df) |
|
|
|
|
|
df['cumulative_imbalance'] = df['dollar_imbalance'].cumsum() |
|
|
|
|
|
df['bar_number'] = (df['cumulative_imbalance'].abs() // dollar_threshold).astype(int) |
|
|
|
|
|
df = df.head(max_records) |
|
|
|
|
|
grouped = df.groupby('bar_number').agg( |
|
trade_count=('trade_id', 'count'), |
|
price_open=('price', 'first'), |
|
price_high=('price', 'max'), |
|
price_low=('price', 'min'), |
|
price_close=('price', 'last'), |
|
qty_sum=('qty', 'sum'), |
|
quoteQty_sum=('quoteQty', 'sum'), |
|
time=('time', 'max'), |
|
isBuyerMaker_avg=('isBuyerMaker', 'mean'), |
|
isBestMatch_avg=('isBestMatch', 'mean') |
|
).reset_index(drop=True) |
|
|
|
logger.info(f"Arquivo {file} processado com sucesso.") |
|
return grouped |
|
except Exception as e: |
|
logger.error(f"Erro ao processar o arquivo {file}: {e}") |
|
logger.error(traceback.format_exc()) |
|
return pd.DataFrame() |
|
|
|
def create_dollar_imbalance_bars(dataset_path, dollar_threshold, output_path, max_records): |
|
if os.path.exists(output_path): |
|
logger.info(f"'dollar_imbalance_bars' já existe. Carregando de {output_path}...") |
|
dollar_imbalance_bars = dd.read_parquet(output_path).compute() |
|
logger.info("'dollar_imbalance_bars' carregado com sucesso.") |
|
else: |
|
logger.info("Criando 'dollar_imbalance_bars'...") |
|
|
|
parquet_files = [os.path.join(dataset_path, f) for f in os.listdir(dataset_path) if f.endswith('.parquet')] |
|
parquet_files.sort() |
|
|
|
|
|
total_records = 0 |
|
limited_files = [] |
|
records_per_file = {} |
|
|
|
|
|
for file in parquet_files: |
|
df_temp = pd.read_parquet(file) |
|
num_records = len(df_temp) |
|
if total_records + num_records <= max_records: |
|
limited_files.append(file) |
|
records_per_file[file] = num_records |
|
total_records += num_records |
|
else: |
|
remaining = max_records - total_records |
|
if remaining > 0: |
|
limited_files.append(file) |
|
records_per_file[file] = remaining |
|
total_records += remaining |
|
break |
|
if total_records >= max_records: |
|
break |
|
|
|
if not limited_files: |
|
logger.warning("Nenhum arquivo para processar dentro do limite de registros.") |
|
return pd.DataFrame() |
|
|
|
logger.info(f"Total de registros a serem processados: {total_records}") |
|
|
|
|
|
delayed_dfs = [process_file_imbalance_bars(file, dollar_threshold, records_per_file[file]) for file in limited_files] |
|
|
|
|
|
with ProgressBar(): |
|
imbalance_bars_dask = dd.from_delayed(delayed_dfs) |
|
dollar_imbalance_bars = imbalance_bars_dask.compute() |
|
|
|
|
|
if not dollar_imbalance_bars.empty: |
|
|
|
dollar_imbalance_bars.to_parquet(output_path, engine='pyarrow', compression='snappy') |
|
logger.info("'dollar_imbalance_bars' criado e salvo com sucesso.") |
|
else: |
|
logger.warning("'dollar_imbalance_bars' está vazio. Nenhum dado foi salvo.") |
|
|
|
return dollar_imbalance_bars |
|
|