Skip to main content

1 - Le matériel et les pilotes ALSA, FFADO, ...


[FERMÉ] Comment savoir si un noyau generic est rt ?

Bonjour,
En lisant le tuto d'optimisation d'ubuntu 9.10 pour la MAO, j'ai vu qu'il existait des noyaux generic qui sont en fait RT (le 2.6.31-18 dans l'exemple).
Ma question est comment peut-on savoir si un noyau generic est RT ? à quoi le reconnait-on ?

J'ai actuellement le noyau 2.6.31-20-generic. Avant d'installer linux-rt 52.6.31-9 j'aurais voulu m'assurer que le noyau que j'ai ne peut pas faire l'affaire.

Par avance merci de vos réponses.

Luc
en gros, je suis perdu 😬😬
Moi aussi, je ne suis pas un mathématicien 😊 Et franchement, je m'en fais pas beaucoup comme je suis bien content avec la performance de mes machines bien que cette matière soit très intéressante.
France
@merci pour le lien AutoStatic

je me permet de resumer ici son contenu :
  • chercher à obtenir à tout prix une Latence en dessous de 10ms est idiot, car on n'entend pas la difference, c'est par exemple la meme latence qui existe entre le premier et le dernier rang d'un grand orchestre (symphonique)
  • pour des enregistrements, il vaut mieux avoir une latence de 100ms (et stable) qu'une latence minuscule, mais sujette à la variabilité

le deuxieme point rejoint l'avis de aCOSwt (latence variante), et le premier point le contredit : je ne pense pas non plus qu'un chef d'orchestre fait jouer les timbales 10ms en avance par rapport aux flutes, meme lui ne voit pas la difference (10ms = 3,33 m de distance dans l'air), l'auditeur non plus

donc cela contribut à répondre à ma question : quelle latence maxi est "imperceptible ? ~10ms

par contre, et la je ne suis pas d'accord avec l'auteur de l'article (ou peut etre si, mais ce sujet est peu abordé) :
  • la vitesse du son est variable selon le conducteur (medium) utilisé, 333 m /seconde dans l'air, mais beaucoup plus dans un medium plus dense, comme des cables hifi
  • Si la latence n'est pas si importante dans le cadre d'un enregistrement, ce qui nous interresse est l'application d'effets (dans l'ordi) et jouer des instruments virtuels
  • or, peut importe la temps que met le son a se disperser entre le musicien et son auditoire, ("3.4 m distance between the speaker and the listener causes a delay of 10 ms"), ce qui nous interresse c'est le temps qu'il met à se propager du bout des doigts de l'instrumentiste (ou de sa voix) à sa propre oreille par le biais d'une "chaine audio".
    celle-ci, dans le cas d'un instrument acoustique standard (on enleve l'orgue...) est de l'ordre de 1m (grand max) = ~3ms
    pour comparaison, la latence interne d'un synthetiseur hardware correcte est de 1ms, soit 1 + 3 (le temps que le son parvienne à l'oreille de l'instrumentiste) = 4 ms, ou plus en fonction de ou est placé l'ampli par rapport à celui-ci, mais jamais au dessus de 10ms

il reste à savoir pourquoi la latence de la carte son varie en fonction de la latence du serveur...
...*chercher à obtenir à tout prix une Latence en dessous de 10ms est idiot, car on n'entend pas la difference, c'est par exemple la meme latence qui existe entre le premier et le dernier rang d'un grand orchestre (symphonique)
...je ne pense pas non plus qu'un chef d'orchestre fait jouer les timbales 10ms en avance par rapport aux flutes, meme lui ne voit pas la difference (10ms = 3,33 m de distance dans l'air)...

3,33 m 😬 c'est un orchestre symphonique dans une boite à sardine ça...😊
Heureusement qu'il y a plus de 3 fois plus que cela en distance devant derrière, extrème gauche extrème droite... sinon... la sécu va devoir s'inquièter de la recrudescence des coups de coude ou d'archet dans l'oeil...
http://upload.wikimedia.org/wikipedia/commons/thumb/c/c1/FolleJournée2009_ONPL.JPG/800px-FolleJournée2009_ONPL.JPG
Et en plus là, il sont déjà bien tassés...
3 fois plus = 30ms, on est bien dans l'audible.
...ce qui nous interresse est l'application d'effets (dans l'ordi) et jouer des instruments virtuels..., ce qui nous interresse c'est le temps qu'il met à se propager du bout des doigts de l'instrumentiste (ou de sa voix) à sa propre oreille par le biais d'une "chaine audio".

Bien que pouvant être tous deux rangés dans la catégorie "Latence", ce sont deux problèmes que je séparerais volontiers car je les crois différents.
Le premier est un pur problème de synchronisation (entre les différentes tâches d'un ordi. Un problème de parallèlisme.)
Le second est un pur problème de temps de réponse (de la chaîne audio. C'est à dire d'une série.)
Je ne crois pas qu'il faille adresser les deux de la même façon et surtout pas croire qu'en réduisant la latence on résoud le premier problème.
France
il y a plus de 3 fois plus que cela en distance devant derrière, extrème gauche extrème droite

tu as raison, erreur d'apréciation, mais la conclusion reste la meme, tout le monde s'en fout dans la salle, et ca n'a pas l'air de faire tiquer le chef d'orchestre
cependant il est vrai que les solistes sont rapproché, et deux instruments qui vont jouer ensembles (par exemple pour melanger les sons a la perfection, hautbois+flute) sont pres l'un de l'autre et du chef d'orchestre...
en fait y'a que les basses, les cuivres et les percu dont on s'en fiche... 😁
il faut croire que les grands anciens de la musique savante connaissaient deja ces problemes de Latence bien avant nous pour inventer des configurations pareilles 🙄

Le premier est un pur problème de synchronisation (entre les différentes tâches d'un ordi. Un problème de parallèlisme.)

je dirai q'à se niveau la, tout se joue entre le processeur et le noyau
en fait, comme dit précédemment je ne le prend meme pas en compte, ce problème m'échappe est n'en est meme pas un
va lire quelques explications incompréhensibles de dev sur le developpement du noyau rt pour t'en convaincre

le calcul recherché pour l'application d'effets ou les instruments virtuel est bien la Latence de traitement du signal, comme pour un instrument acoustique :

  • touche clavier MIDI enfoncée > acheminement du signal MIDI vers le synthé virtuel > création du signal audio dans un buffer et acheminement vers la carte son > conversion N/A du signal
  • chant dans un micro > conversion du signal A/N > traitement et acheminement vers la carte audio > re-conversion du signal
  • mécanique d'un piano actionnée > acheminement du son de la corde à la table d'harmonie

les partie en gras ne sont pas sujettes a un quelconque parallelisme (serveur jack/noyau/processeur) à part si l'on possede un proc multi core, d'apres ce que je comprend du fonctionnement du système
(a part pour le piano avec ses 3 cordes...😁)
Page: 3/3
1  2  3