A mon avis le soucis s'il en est ne dois venir que de la gestion logiciel. Est ce qu'il est possible que le capteur qui se veut récupérer le maximum de lumière n'en faut pas un peu trop ?
Ce que je veux dire par là, c'est que le capteur récupère plus de lumière que l'œil humain, il doit bien y avoir un impact sur la colorisation de l'image. Normalement le traitement logiciel est là pour contrebalancer ces écarts. Mais là pour le coup il est vrai qu'il y a, selon les prises des différences plus ou moins importantes dans les teintes.
Bon je fais avec ce que j'ai hein !
Sur la photo (full auto) on voit une différence de teinte sur les trois capuchons orange en premier plan, celui de gauche tire sur le rouge, alors qu'ils sont tous de la même couleur.
Le capuchon rose fluo en second plan, est en fait orange, le p40 est à la rue sur cette couleur.
Le reste des couleurs est plutôt bien retranscrit par rapport à la réalité.
Moi globalement ça ne me gêne pas, j'aime bien le côté généreux en couleur, mais clairement y a des couleurs le p40 les interprète comme il veut...
J'ai aussi regardé des comparatifs photo entre le p40, le pixel, le x20 ultra ou pas, le mi 10 ect. J'ai l'impression que le p40 se craque surtout sur les teintes jaune orange rouge. Peut-être est ce dû au capteur ryyb ou la gestion hdr qui tend à trop capter ces teintes et la balance logicielle n'est pas assez efficace je ne sais pas.
J'avoue que pour le coup je ne m'y connais pas assez en photo et en matériel pour émettre un avis. Je ne peux que constater ! En tout cas une maj logiciel pourrait peut-être régler le soucis.