Le projet THINK
Projet de R&T transverse IN2P3
Aller au contenu
  • Accueil
    • Blog
    • À propos de
    • Contact
  • Les techniques neuronales
    • Applications en Physique des Particules
    • Introduction aux techniques neuronales
    • Cours et workshops
    • Outils de développement
    • Hardware
  • IA embarquée
    • Définition: Intelligence Artificielle embarquée
    • Les enjeux: Intelligence Artificielle embarquée
    • Les technologies: Intelligence Artificielle embarquée
  • Résultats
    • Liens vers réunions plénières
    • Benchmarks
    • Méthodologies
      • FPGA
        • Intel
          • Intel HLS
          • FPGA AI Suite
        • Xilinx Zynq -HLS4ML-
      • GPU
        • nVidia
      • Chips neuromorphiques
        • Brainchip
      • MPPA
    • Comparaison de performance
    • Applications
      • Applications à l’analyse de signal
← On the Geometry of Generalization and Memorization in Deep Neural Networks
OpenVINO™ Execution Provider + Model Caching = Better First Inference Latency for your ONNX Models →

NEMO: A Novel Multi-Objective Optimization Method for AI Challenges

Publié le 1 juillet 2022 par

Neuroevolution-Enhanced Multi-Objective Optimization (NEMO) for Mixed-Precision Quantization delivers state-of-the-art compute speedups and memory improvements for artificial intelligence (AI) applications.

Ce contenu a été publié dans Non classé. Vous pouvez le mettre en favoris avec ce permalien.
← On the Geometry of Generalization and Memorization in Deep Neural Networks
OpenVINO™ Execution Provider + Model Caching = Better First Inference Latency for your ONNX Models →

Laisser un commentaire Annuler la réponse

Vous devez vous connecter pour publier un commentaire.

  • Articles récents

    • Securing AI Beyond Shadow Practices: Insights from the Intel® Liftoff Startup Ecosystem
    • Tackling Network Security: AI Agents at the Edge with Red Hat AI on Intel® Processors and Graphics
    • Practical Deployment of LLMs for Network Traffic Classification – Part 1
    • Practical Deployment of LLMs for Network Traffic Classification
    • Intel Labs Presents Latest Machine Learning Research Among Eight Papers at ICML 2025
  • Neural networks news

  • Intel NN News

    • Securing AI Beyond Shadow Practices: Insights from the Intel® Liftoff Startup Ecosystem

      Shadow AI is rising fast. Intel® Liftoff startups are building secure, scalable tools to protect […]

    • Practical Deployment of LLMs for Network Traffic Classification - Part 1

      Additional contributing authors:  Rui Li, Vishakh Nair, Mrittika Ganguli Executive SummaryThe […]

    • Tackling Network Security: AI Agents at the Edge with Red Hat AI on Intel® Processors and Graphics

      Executive Summary: The cybersecurity landscape is evolving rapidly, with organizations facing […]

  • Archives

    • juillet 2025
    • juin 2025
    • mai 2025
    • avril 2025
    • mars 2025
    • février 2025
    • janvier 2025
    • décembre 2024
    • novembre 2024
    • octobre 2024
    • septembre 2024
    • août 2024
    • juillet 2024
    • juin 2024
    • mai 2024
    • avril 2024
    • mars 2024
    • février 2024
    • janvier 2024
    • décembre 2023
    • novembre 2023
    • octobre 2023
    • septembre 2023
    • août 2023
    • juillet 2023
    • juin 2023
    • mai 2023
    • avril 2023
    • mars 2023
    • février 2023
    • janvier 2023
    • décembre 2022
    • novembre 2022
    • octobre 2022
    • septembre 2022
    • août 2022
    • juillet 2022
    • juin 2022
    • mai 2022
    • avril 2022
    • novembre 2021
  • Catégories

    • Non classé
Le projet THINK
Fièrement propulsé par WordPress
Generated by Feedzy