Modifications

Sauter à la navigation Sauter à la recherche
2 836 octets ajoutés ,  28 décembre 2014 à 13:17
aucun résumé de modification
Ligne 1 : Ligne 1 :  
{{Spark.IO-CLI-NAV}}
 
{{Spark.IO-CLI-NAV}}
  −
{{traduction}}
      
== Introduction ==
 
== Introduction ==
Ligne 48 : Ligne 46 :     
=== spark core rename ===
 
=== spark core rename ===
Assigner un nouveau nom à un Core déja associé.
+
Assigner un nouveau nom à un Core déja associé au compte Spark Cloud.
  <nowiki># Comment Changer ne nom de votre core
+
  <nowiki># Comment renommer votre core
 
$ spark core rename 0123456789ABCDEFGHI "pirate frosting"</nowiki>
 
$ spark core rename 0123456789ABCDEFGHI "pirate frosting"</nowiki>
   Ligne 92 : Ligne 90 :     
=== Compiler en remote et flasher en local ===
 
=== Compiler en remote et flasher en local ===
To work locally, but use the cloud compiler, simply use the compile command, and then the local flash command after. Make sure you connect your core via USB and place it into  [[Spark.IO-Connect#Mode_DFU|mode dfu]] (''anglais, spark'').
+
Pour un travail en local, tout en utilisant un compilateur sur le cloud, utilisez simplement la commande <code>compile</code> et ensuite la commande pour faire un flash en local.  
  <nowiki># how to compile a directory of source code and tell the CLI where to save the results
+
 
$ spark compile my_project_folder --saveTo firmware.bin
+
Assurez-vous que votre Core est connecté via USB et de l'avoir placé en mode [[Spark.IO-Connect#Mode_DFU|mode dfu]] (''anglais, spark'').
OR
+
  <nowiki># Comment compiler un répertoire de code source et
# how to compile a list of source files
+
# indiquer au CLI où sauver le binaire résultant
 +
$ spark compile mon_repertoire_de_projet --saveTo firmware.bin
 +
OU
 +
# comment compiler une liste de fichier source
 
$ spark compile app.ino library1.cpp library1.h --saveTo firmware.bin
 
$ spark compile app.ino library1.cpp library1.h --saveTo firmware.bin
   −
# how to flash a pre-compiled binary over usb to your core
+
# Comment flasher un binaire pré-compilé sur votre Core via USB
# make sure your core is flashing yellow and connected via USB
+
# Assurez-vous que votre Core clignote en jaune et qu'il soit connecté via USB.
# requires dfu-util to be installed
+
# Necessite que l'utilitaire dfu-util soit installé
 
$ spark flash --usb firmware.bin</nowiki>
 
$ spark flash --usb firmware.bin</nowiki>
    
== Compiler ==
 
== Compiler ==
Compiles one or more source file, or a directory of source files, and downloads a firmware binary.
+
Compiler un ou plusieurs fichiers source, ou répertoire et télécharger le fichier binaire du firmware généré.
=== compiling a directory ===
+
 
You can setup a directory of source files and libraries for your project, and the CLI will use those when compiling remotely. You can also create <code>spark.include</code> and / or a <code>spark.ignore</code> file in that directory that will tell the CLI specifically which files to use or ignore. Those files are just plain text with one line per filename
+
=== Compiler un répertoire ===
  <nowiki># how to compile a directory of source code
+
Vous pouvez compiler un répertoire de fichiers sources et de bibliothèques pour votre projet (et le CLI utilisera ces fichiers sur lorsqu'il fera la compilation en remote sur les serveurs de Spark).
$ spark compile my_project_folder</nowiki>
+
 
 +
Vous pouvez créer un fichier <code>spark.include</code> et/ou <code>spark.ignore</code> dans le répertoire. Ces fichiers indiquent au CLI quels sont les fichiers à inclure (''include'') et à ignorer (''ignore''). Ces fichiers sont de simples fichiers texte contenant une ligne par fichier.
 +
  <nowiki># comment compiler un répertoire de fichiers sources
 +
$ spark compile nom_du_repertoire_du_projet</nowiki>
   −
=== example spark.include ===
+
=== Exemple de spark.include ===
The spark.include and spark.ignore files are just regular text files with one filename per line. If your directory has one of these files, the CLI will use it to try and determine what to include or ignore when compiling your app.
+
spark.include est un fichier texte standard avec une ligne par fichier à inclure. Le CLI l'utiliseras pour essayer de déterminer ce qui doit être inclus lorsque vous compilerez votre application.
    
  <nowiki># spark.include
 
  <nowiki># spark.include
Ligne 119 : Ligne 123 :  
library1.cpp</nowiki>
 
library1.cpp</nowiki>
   −
=== example spark.ignore ===
+
=== Exemple de spark.ignore ===
 +
spark.ignore est un fichier texte standard avec une ligne par fichier à exclure. Le CLI l'utiliseras pour essayer de déterminer les fichier à exclure/ignorer lorsque vous compilerez votre application.
    
  <nowiki># spark.ignore
 
  <nowiki># spark.ignore
Ligne 126 : Ligne 131 :  
old_version.cpp</nowiki>
 
old_version.cpp</nowiki>
   −
=== Compiling one or more source files ===
+
=== Compiler un ou plusieurs fichiers ===
   −
  <nowiki># how to compile a list of source files
+
  <nowiki># Comment compiler une liste de fichier source
 
$ spark compile app.ino library1.cpp library1.h</nowiki>
 
$ spark compile app.ino library1.cpp library1.h</nowiki>
    
== Appels ==
 
== Appels ==
 +
L'un des plus grands intérêts de l'infrastructure Spark Cloud est de pouvoir appeler des fonctions sur votre Core ou obtenir la valeur de certaines variables publiées sur Spark Cloud.
 +
 
=== spark call ===
 
=== spark call ===
Calls a function on one of your cores, use <code>spark list</code> to see which cores are online, and what functions are available.
+
Appel d'une fonction sur l'un de vos Cores (''to call'' signifie ''appeler''), utilisez <code>spark list</code> pour identifier les cores qui sont en ligne et les fonctions disponibles.
  <nowiki># how to call a function on your core
+
  <nowiki># Comment appeler une fonction sur votre Core
 
$ spark call 0123456789ABCDEFGHI digitalWrite "D7,HIGH"
 
$ spark call 0123456789ABCDEFGHI digitalWrite "D7,HIGH"
 
1</nowiki>
 
1</nowiki>
    
=== spark get ===
 
=== spark get ===
Retrieves a variable value from one of your cores, use <code>spark list</code> to see which cores are online, and what variables are available.
+
Retrouver ka valeur d'une variable d'un de vos Cores, utilisez <code>spark list</code> pour identifier les cores qui sont en ligne et les fonctions disponibles.
  <nowiki># how to get a variable value from a core
+
  <nowiki># Comment obtenir une variable depuis un Core
 
$ spark get 0123456789ABCDEFGHI temperature
 
$ spark get 0123456789ABCDEFGHI temperature
 
72.1</nowiki>
 
72.1</nowiki>
    
=== spark monitor ===
 
=== spark monitor ===
Pulls the value of a variable at a set interval, and optionally display a timestamp
+
Entasser les différentes valeurs d'une variable à intervalle déterminé et optionnellement afficher le [http://fr.wikipedia.org/wiki/Horodatage timestamp] (''timestamp: une valeur d'horodatage, wikipedia, français'').
 +
 
 +
'''Le monitoring permet d'interroger un ou plusieurs cores'''.
   −
* Minimum delay for now is 500 (there is a check anyway if you keyed anything less)
+
* Le délai minimum est 500 (le CLI vérifie la valeur encodée et rectifie si nécessaire)
* hitting CTRL + C in the console will exit the monitoring
+
* Pressez CTRL + C dans la console pour pour sortie du monitoring
   −
  <nowiki># how to poll for a variable value from one or more cores continuously
+
  <nowiki># Comment interroger la valeur d'une variable d'un ou plusieurs Cores continuellement
 
$ spark monitor 0123456789ABCDEFGHI temperature 5000
 
$ spark monitor 0123456789ABCDEFGHI temperature 5000
 
$ spark monitor 0123456789ABCDEFGHI temperature 5000 --time
 
$ spark monitor 0123456789ABCDEFGHI temperature 5000 --time
 
$ spark monitor all temperature 5000
 
$ spark monitor all temperature 5000
 
$ spark monitor all temperature 5000 --time
 
$ spark monitor all temperature 5000 --time
$ spark monitor all temperature 5000 --time > my_temperatures.csv</nowiki>
+
$ spark monitor all temperature 5000 --time > mes_temperatures.csv</nowiki>
 +
 
 +
Notes:
 +
* l'option '''--time''' ajoute le timestamp dans le résultat du monitoring.
 +
* l'option '''all''' permet d'interroger tous les Cores enregistré dans le compte (tout ceux visible dans "spark list").
 +
* l'option '''5000''' est le délai de mise-à-jour en millisecondes (donc 5 secondes)
 +
* l'option '''> mes_temperatures.csv''' permet de rediriger les informations vers un [http://fr.wikipedia.org/wiki/Comma-separated_values fichier csv] (''comma separated value, wikipedia, français'') supporté par tous les tableurs.
    
== Outils ==
 
== Outils ==
 
=== spark identify ===
 
=== spark identify ===
Retrieves your core id when the core is connected via USB and in listening mode (flashing blue).
+
Permet d'obtenir le CORE ID lorsqu'il est connecté via USB et en mode ''listening'' (flash en bleu).
  <nowiki># helps get your core id via usb and serial
+
  <nowiki># Permet d'obtenir le CORE ID via USB et port série
# make sure your core is connected and blinking blue
+
# Assurez vous que le Core est connecté et clignote en bleu
 
$ spark identify
 
$ spark identify
 
$ spark identify 1
 
$ spark identify 1
Ligne 171 : Ligne 186 :     
=== spark subscribe ===
 
=== spark subscribe ===
Subscribes to published events on the cloud, and pipes them to the console. Special core name "mine" will subscribe to events from just your cores.
+
Souscrire à un événement publié sur le Cloud et l'envoyer (''pipe'') vers la console. Le nom de Core spécial "mine" (''le mien'') va souscrire aux événements de vos cores.
  <nowiki># opens a connection to the API so you can stream events coming from your cores
+
 
 +
Si vous connaissez le nom de l'événement qui vous intéresse, vous pouvez le spécifier à l'emplacement 'eventName' (qui signifie littéralement ''nom de l'événement'')
 +
 
 +
  <nowiki># Ouvrir une connexion sur l'API pour surveiller le flux des événements provenant de vos cores
 
$ spark subscribe
 
$ spark subscribe
 
$ spark subscribe mine
 
$ spark subscribe mine
Ligne 179 : Ligne 197 :  
$ spark subscribe eventName CoreName
 
$ spark subscribe eventName CoreName
 
$ spark subscribe eventName 0123456789ABCDEFGHI</nowiki>
 
$ spark subscribe eventName 0123456789ABCDEFGHI</nowiki>
 +
 +
{{underline|Exemple:}}
 +
 +
Dans cet exemple, nous saisissons la commande:
 +
 +
<nowiki>spark subscribe mine</nowiki>
 +
 +
Puis nous faisons un Reset de notre Core en pressant le bouton "reset".... voici ce que nous obtenons en retour dans la console
 +
 +
<nowiki>$ spark subscribe mine
 +
Subscribing to all events from my personal stream (my cores only)
 +
Listening to: /v1/devices/events
 +
{"name":"spark/status","data":"online","ttl":"60","published_at":"2014-12-28T12:55:54.116Z","coreid":"54xxxxxxxxxxxxxxxxxxxx67"}
 +
{"name":"spark/cc3000-patch-version","data":"1.29","ttl":"60","published_at":"2014-12-28T12:55:54.242Z","coreid":"54xxxxxxxxxxxxxxxxxxxx67"}</nowiki>
 +
 +
Vous noterez la structure des informations (format JSON) contenant par ailleurs le nom de l'événement (voyez l'élément ''name'') ainsi que l'identification du core (voyez l'élément ''coreid'').
    
=== spark serial list ===
 
=== spark serial list ===
Shows currently connected Spark Core's acting as serial devices over USB
+
Affiche le Spark Core actuellement connecté comme périphérique série via USB
  <nowiki># shows a list of cores connected via serial usb
+
  <nowiki># Affiche une liste des Cores connectés via USB Série
 
$ spark serial list</nowiki>
 
$ spark serial list</nowiki>
    
=== spark serial monitor ===
 
=== spark serial monitor ===
Starts listening to the specified serial device, and echoes to the terminal
+
Commence l'écoute du périphérique série spécifié et renvoie les informations sur le terminal (Faire un ''écho'' sur le terminal)
  <nowiki># opens a read-only serial monitor for a particular core
+
  <nowiki># Ouvrir un moniteur série en lecture seule pour un Core spécifique
 
$ spark serial monitor
 
$ spark serial monitor
 
$ spark serial monitor 1
 
$ spark serial monitor 1
 +
# Windows affiche le port série comme un COMx
 
$ spark serial monitor COM3
 
$ spark serial monitor COM3
 +
# Sous Mac, le port série est affiché comme un /dev/
 
$ spark serial monitor /dev/cu.usbmodem12345</nowiki>
 
$ spark serial monitor /dev/cu.usbmodem12345</nowiki>
  
29 917

modifications

Menu de navigation