Giza développe un protocole sans confiance pour décentraliser le calcul d'inférence de l'apprentissage automatique tout en fournissant des limites de sécurité alimentant l'économie ouverte pour l'IA open-source. Giza vise à développer un écosystème transparent et sans confiance pour l'apprentissage automatique en permettant un protocole léger pour le déploiement et l'utilisation de modèles d'apprentissage automatique vérifiables.