--- pipeline_tag: text-generation license: mit language: - es - en tags: - bittensor - subnet-20 - bitagent - phi2 - lora - bfcl - tool-calling base_model: microsoft/phi-2 library_name: transformers model_type: causal-lm inference: true --- # 🚀 Antonio Phi-2 BitAgent Merged (Subnet-20) **Autor:** [@Tonit23](https://huggingface.co/Tonit23) **Base:** `microsoft/phi-2` **Fine-tune:** [`antonio-phi2-bitagent-lora`](https://huggingface.co/Tonit23/antonio-phi2-bitagent-lora) **Subnet:** 🧠 [Bittensor Subnet-20 — BitAgent](https://rizzo.network/subnet-20/) **Publicación:** octubre 2025 --- ## 🧩 Descripción general `antonio-phi2-bitagent-merged` es una versión **LoRA-fusionada** del modelo `microsoft/phi-2`, adaptada específicamente para el entorno **BitAgent (SN20)** dentro del ecosistema **Bittensor Finney**. Este modelo está optimizado para tareas de **razonamiento en español e inglés**, **inferencia compacta** y **tool-calling semántico** (uso de funciones o herramientas internas), usando un esquema compatible con los validadores SN20. --- ## ⚙️ Detalles técnicos | Propiedad | Valor | |-------------------------|-------| | Modelo base | `microsoft/phi-2` | | Fine-tune | `LoRA` sobre dataset de prompts técnicos BFCL | | Parámetros totales | ~7.24 B | | Parámetros entrenables | 3.4 M (0.047 %) | | Framework | PyTorch + Transformers + PEFT | | Licencia | MIT | | Hardware objetivo | CPU / GPU (float16) | ### Entrenamiento El modelo fue fine-tuneado con **LoRA (Low-Rank Adaptation)** en un conjunto de datos mixto de tareas técnicas: - prompts de razonamiento lógico, instrucciones BFCL y tool-calling - pares entrada/salida basados en análisis ABAP y Python - mezclas en español e inglés --- ## 🧠 Uso ### Inferencia local (Transformers) ```python from transformers import AutoModelForCausalLM, AutoTokenizer import torch model = AutoModelForCausalLM.from_pretrained("Tonit23/antonio-phi2-bitagent-merged", torch_dtype=torch.float16) tokenizer = AutoTokenizer.from_pretrained("Tonit23/antonio-phi2-bitagent-merged") prompt = "Explica el proceso de staking en la red Bittensor Finney:" inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=200) print(tokenizer.decode(outputs[0], skip_special_tokens=True))