29-12-2022
Un tesista llamado Pablo
La idea de hoy es dejar el training de SQL corriendo. Se me ocurrió la idea de armar los experimentos en forma de librería, de forma de poder dejar escrito como un archivo de python (o un notebook), los experimentos que corro. Habría que ver qué tal fácil es dejar corriendo un server de jupyterlab, y ver si puede conectarse con el docker daemon.
Primero, a correr SQL:
nohup ./scripts/docker_run.sh \
/tesis/repos/tsm-pipeline/experiments/tesis/atm_sql_train.txt \
/tesis/tmp/results/sql_top_atm/ \
"sql_top_atm" Sql SqlInjectionWorse 2> /tesis/sql_top_atm.log &
No boost, terrible. Porbando con NoSQL que hay mas cantidad: /tesis/repos/tsm-pipeline/experiments/tesis/atm_nosql_top100.txt
Primero armo los splits
python -m scripts.split --name atm_nosql_top100 --entries-file /tesis/repos/tsm-pipeline/experiments/tesis/atm_nosql_top100.txt --train-size .7
Cacheo todas las dbs:
python -m database.cli --list /tesis/repos/tsm-pipeline/experiments/tesis/atm_nosql_top100.txt --cache-root /tesis/dbs/ --cli-version 2.5.2 --parallel --thread-count=8
python -m database.cli --list /tesis/repos/tsm-pipeline/experiments/tesis/atm_nosql_top100.txt --cache-root /tesis/dbs/ --cli-version 2.10.5 --parallel --thread-count=8
entrenando:
nohup ./scripts/docker_run.sh \
/tesis/repos/tsm-pipeline/experiments/tesis/atm_nosql_top100_train.txt \
/tesis/tmp/results/atm_nosql_top100/ \
"atm_nosql_top100" NoSql NosqlInjectionWorse &> /tesis/atm_nosql_top100.log &