12-09-2025, 11:01 AM
(Modification du message : 12-09-2025, 11:16 AM par FastFrench.)
@Lolo69: je me faisais la même réflexion, et avais prévu, dans un second temps, de tenter cette approche. C'est vrai que pour réduire les harmoniques, il est important de ne pas découper les alternances. Mais tant qu'on laisse passer au moins des demi-sinusoïdes complètes, ça devrait être bon. Et ça reste compatible avec les SSR doté d'un ZC (il ne conduisent qu'au début de l'alternance suivante).
Mon approche au niveau algorithme est un peu différente, mais l'objectif est le même.
J'envisageait deux approches possibles:
- soit en mode déterministe. A partir d'un instant T, on calcule d'une part la puissance déjà transmise. Et d'autre part la puissance attendue sur cette durée. Selon qu'on dépasse ou pas le seuil, on laisse passer l'alternance suivante ou pas.
- en mode aléatoire: en partant des mêmes données, on détermine une probabilité de laisser passer l'alternance suivante. Avec un générateur de nombres aléatoires (il y en a un hardware géré par l'ESP32), on laisse passer ou pas l'alternance.
Le mode déterministe est plus simple à implémenter et plus simple conceptuellement. Le mode aléatoire est plus élaboré, et permet notamment de limiter la présence d'harmoniques persistantes, en commençant pas la composante continue (si on décide de découper au niveau des 1/2 sinusoïdes).
Au-delà du mode, je vois deux paramètres à expérimenter dans cette logique:
- découpage par tranches de 10ms (1/2 sinusoïdes) ou 20ms (sinusoïdes complètes)
- retard que l'on introduit entre la mesure et la réaction (il faut prendre en compte le fait que la prochaine mesure ne sera au mieux que partiellement impactée par les découpages de la période courante. Si la lecture des mesures est rapide et bien synchronisée avec le dispositif qui effectue les mesures, les découpages effectués sur une période P (1s dans le cas du Shelly) devraient impacter partiellement la mesure P+1 et totalement la mesure P+2).
@Ludovic35: tu as tout à fait raison, le fait que le Linky ne fournisse que la puissance apparente (Ueff x Ieff, sans prendre en compte le déphasage) peut impacter l'interprétation.
Dans mon cas, je me base sur le projet Tasmota Téléinfo, qui est à mon avis l'un des plus sérieux sur la remonté des informations TIC du Linky.
C'est lui qui se charge de calculer le Cos Phi (j'avais essayé de le faire par moi-même, mais c'était nettement moins propre).
Ceci dit, je ne pense pas qu'une erreur dans le cos(phi) puisse expliquer les trois faiblesses constatées sur le Linky: décalage dans le temps, passe-bas ou précision.
En effet, il me semble que l'estimation du cos Phi est déterminée par Tasmota Téléinfo sur une plage glissante et évolue progressivement (en fait on n'a pas trop le choix que de le calculer sur une base de temps assez large).
Et c'est un coefficient multiplicateur. Donc une erreur dans son estimation pourrait expliquer un décalage vertical (relativement) persistant entre les deux courbes (ce qu'on ne constate pas), mais pas ce que l'on voit ici (plutôt un décalage temporel et un effet d'intégration).
Mon approche au niveau algorithme est un peu différente, mais l'objectif est le même.
J'envisageait deux approches possibles:
- soit en mode déterministe. A partir d'un instant T, on calcule d'une part la puissance déjà transmise. Et d'autre part la puissance attendue sur cette durée. Selon qu'on dépasse ou pas le seuil, on laisse passer l'alternance suivante ou pas.
- en mode aléatoire: en partant des mêmes données, on détermine une probabilité de laisser passer l'alternance suivante. Avec un générateur de nombres aléatoires (il y en a un hardware géré par l'ESP32), on laisse passer ou pas l'alternance.
Le mode déterministe est plus simple à implémenter et plus simple conceptuellement. Le mode aléatoire est plus élaboré, et permet notamment de limiter la présence d'harmoniques persistantes, en commençant pas la composante continue (si on décide de découper au niveau des 1/2 sinusoïdes).
Au-delà du mode, je vois deux paramètres à expérimenter dans cette logique:
- découpage par tranches de 10ms (1/2 sinusoïdes) ou 20ms (sinusoïdes complètes)
- retard que l'on introduit entre la mesure et la réaction (il faut prendre en compte le fait que la prochaine mesure ne sera au mieux que partiellement impactée par les découpages de la période courante. Si la lecture des mesures est rapide et bien synchronisée avec le dispositif qui effectue les mesures, les découpages effectués sur une période P (1s dans le cas du Shelly) devraient impacter partiellement la mesure P+1 et totalement la mesure P+2).
@Ludovic35: tu as tout à fait raison, le fait que le Linky ne fournisse que la puissance apparente (Ueff x Ieff, sans prendre en compte le déphasage) peut impacter l'interprétation.
Dans mon cas, je me base sur le projet Tasmota Téléinfo, qui est à mon avis l'un des plus sérieux sur la remonté des informations TIC du Linky.
C'est lui qui se charge de calculer le Cos Phi (j'avais essayé de le faire par moi-même, mais c'était nettement moins propre).
Ceci dit, je ne pense pas qu'une erreur dans le cos(phi) puisse expliquer les trois faiblesses constatées sur le Linky: décalage dans le temps, passe-bas ou précision.
En effet, il me semble que l'estimation du cos Phi est déterminée par Tasmota Téléinfo sur une plage glissante et évolue progressivement (en fait on n'a pas trop le choix que de le calculer sur une base de temps assez large).
Et c'est un coefficient multiplicateur. Donc une erreur dans son estimation pourrait expliquer un décalage vertical (relativement) persistant entre les deux courbes (ce qu'on ne constate pas), mais pas ce que l'on voit ici (plutôt un décalage temporel et un effet d'intégration).