Le projet THINK
Projet de R&T transverse IN2P3
Aller au contenu
  • Accueil
    • Blog
    • À propos de
    • Contact
  • Les techniques neuronales
    • Applications en Physique des Particules
    • Introduction aux techniques neuronales
    • Cours et workshops
    • Outils de développement
    • Hardware
  • IA embarquée
    • Définition: Intelligence Artificielle embarquée
    • Les enjeux: Intelligence Artificielle embarquée
    • Les technologies: Intelligence Artificielle embarquée
  • Résultats
    • Liens vers réunions plénières
    • Benchmarks
    • Méthodologies
      • FPGA
        • Intel
          • Intel HLS
          • FPGA AI Suite
        • Xilinx Zynq -HLS4ML-
      • GPU
        • nVidia
      • Chips neuromorphiques
        • Brainchip
      • MPPA
    • Comparaison de performance
    • Applications
      • Applications à l’analyse de signal
← Nature Machine Intelligence Publishes Intel Labs’ Neuromorphic Research on Visual Perception
Meet The Winners Of The 2024 Intel® Liftoff Hackathon For African AI Startups →

Quick Emergency Responses with AI: Developer Spotlight

Publié le 16 juillet 2024 par

AI solution built by Intel® Student Ambassador on Intel® Tiber™ Developer Cloud for critical emergencies.

Ce contenu a été publié dans Non classé. Vous pouvez le mettre en favoris avec ce permalien.
← Nature Machine Intelligence Publishes Intel Labs’ Neuromorphic Research on Visual Perception
Meet The Winners Of The 2024 Intel® Liftoff Hackathon For African AI Startups →
  • Articles récents

    • Accelerating Llama 3.3-70B Inference on Intel® Gaudi® 2 via Hugging Face Text Generation Inference
    • Exploring Vision-Language Models (VLMs) with Text Generation Inference on Intel® Data Center GPU Max
    • A Journey Towards Approaching “Why” Question-Answering for Video
    • From Infrastructure to Impact: How Dell is Scaling AI
    • Intel Labs’ Kid Space Conversational AI Facilitates Collaborative Problem-Solving Among Students
  • Neural networks news

  • Intel NN News

    • Accelerating Llama 3.3-70B Inference on Intel® Gaudi® 2 via Hugging Face Text Generation Inference

      Learn how to deploy Llama 3.3-70B on Intel® Gaudi® 2 AI accelerators using Hugging Face TGI, with […]

    • Exploring Vision-Language Models (VLMs) with Text Generation Inference on Intel® Data Center GPU Max

      Supercharge VLM deployment with TGI on Intel XPUs. This guide shows how to set up, optimize, and […]

    • Evaluating Trustworthiness of Explanations in Agentic AI Systems

      Intel Labs research published at the ACM CHI 2025 Human-Centered Explainable AI Workshop found that […]

  • Archives

    • juin 2025
    • mai 2025
    • avril 2025
    • mars 2025
    • février 2025
    • janvier 2025
    • décembre 2024
    • novembre 2024
    • octobre 2024
    • septembre 2024
    • août 2024
    • juillet 2024
    • juin 2024
    • mai 2024
    • avril 2024
    • mars 2024
    • février 2024
    • janvier 2024
    • décembre 2023
    • novembre 2023
    • octobre 2023
    • septembre 2023
    • août 2023
    • juillet 2023
    • juin 2023
    • mai 2023
    • avril 2023
    • mars 2023
    • février 2023
    • janvier 2023
    • décembre 2022
    • novembre 2022
    • octobre 2022
    • septembre 2022
    • août 2022
    • juillet 2022
    • juin 2022
    • mai 2022
    • avril 2022
    • novembre 2021
  • Catégories

    • Non classé
Le projet THINK
Fièrement propulsé par WordPress
Generated by Feedzy