git clone https://github.com/mechmind-dwv/core-system.git
cd core-system# Copiar configuración de ejemplo
cp .env.example .env
# Editar variables de entorno
nano .env# Levantar todos los servicios
make docker-up
# Verificar servicios
docker-compose ps
# Ver logs
docker-compose logs -f neural-nexus-orchestrator# Crear entorno virtual
python3 -m venv venv
source venv/bin/activate
# Instalar dependencias
make install
# Ejecutar orchestrator
cargo run --bin neural-nexus-orchestrator
# En otra terminal: ejecutar node
cargo run --bin neural-nexus-node# Health check del orchestrator
curl http://localhost:8080/health
# Métricas
curl http://localhost:8080/metrics
# Lista de nodos
curl http://localhost:8080/api/v1/nodes# SSH a tu Raspberry Pi
ssh pi@raspberrypi.local
# Ejecutar instalador
curl -sSL https://install.neural-nexus.dev/rpi | bash
# O manualmente con Docker
docker run -d --name neural-nexus-rpi \
--restart unless-stopped \
-v /opt/neural-nexus:/app/data \
-p 8080:8080 \
-e ORCHESTRATOR_URL=http://your-orchestrator:8080 \
neuralnexus/raspberry-pi:latest# Con GPU acceleration
docker run -d --name neural-nexus-jetson \
--runtime nvidia \
--restart unless-stopped \
-v /opt/neural-nexus:/app/data \
-p 8080:8080 \
-e GPU_ACCELERATION=true \
neuralnexus/jetson:latestimport requests
response = requests.post('http://localhost:8080/api/v1/nodes/register', json={
'node_id': 'my-edge-node-001',
'node_type': 'raspberry-pi',
'capabilities': ['inference', 'monitoring'],
'hardware_info': {
'cpu_cores': 4,
'memory_mb': 4096,
'gpu_available': False
}
})
print(response.json())import requests
import numpy as np
# Preparar datos
input_data = np.random.randn(1, 3, 224, 224).tolist()
# Enviar request
response = requests.post('http://localhost:8080/api/v1/inference', json={
'model_name': 'resnet50',
'input_data': input_data,
'priority': 5
})
result = response.json()
print(f"Inferencia completada en {result['processing_time_ms']}ms")
print(f"Outputs: {result['outputs']}")# Acceder a Grafana
open http://localhost:3000
# Usuario: admin
# Contraseña: neural_nexus_admin
# Dashboards pre-configurados:
# - Sistema Overview
# - Node Performance
# - Inference Metrics
# - Resource Usage# Verificar logs
docker-compose logs
# Reiniciar servicios
make docker-down
make docker-up
# Verificar puertos
sudo netstat -tulpn | grep -E '8080|50051|5432|6379|1883'# Verificar conectividad
ping orchestrator-hostname
# Verificar variables de entorno
echo $ORCHESTRATOR_URL
# Ver logs del nodo
docker logs neural-nexus-node# Verificar uso de recursos
docker stats
# Optimizar configuración
# Editar config/node.toml
[inference.optimization]
quantization.enabled = true
batching.max_batch_size = 16- 📖 Documentación Completa
- 🏗️ Arquitectura del Sistema
- 🚀 Guía de Despliegue
- 🔌 API Reference
- 🤝 Guía de Contribución
- 💬 Discord Community
- ✅ Configurar tu primer nodo edge
- ✅ Cargar tu primer modelo ML
- ✅ Ejecutar inferencias
- ✅ Monitorear métricas en Grafana
- ✅ Escalar horizontalmente con Kubernetes
- ✅ Implementar aprendizaje federado
- ✅ Contribuir al proyecto
🧠⚡ ¡Bienvenido a Neural Nexus! El futuro del Edge Computing distribuido está en tus manos.