C'est une question très simple. Mais je vois un comportement déroutant dans une expérience que j'essaie de comprendre. J'essaie donc de voir si ma compréhension de la théorie est fausse.
Wikipédia dit: Le coulomb (symbole d'unité: C) est l'unité dérivée SI de la charge électrique (symbole: Q ou q). Elle est définie comme la charge transportée par un courant constant d'un ampère en une seconde:
Ok donc 1 ampère pendant une seconde transporte un coulomb, non?
Donc en d'autres termes, si je décharge un condensateur pendant une seconde à 1 ampère et charge un deuxième condensateur pendant une seconde à 2 ampères d'une autre source d'alimentation, le résultat final est que je mets deux fois plus de charge sur le deuxième condensateur que je l'ai déchargé du premier condensateur , non?
Si c'est correct, alors permettez-moi de poser une autre question: la tension n'est pas pertinente pour la dépense énergétique mesurée, n'est-ce pas? Peu importe si le premier condensateur démarre à 100 volts et se décharge à 0 volts tandis que le deuxième condensateur démarre à 0 et se charge à 10 volts. Tout ce qui compte pour calculer le mouvement d'énergie est la charge / ampères réels. Non?
De plus, y a-t-il une sorte de condition connue où cela n'est pas vrai ou quelque chose qui fait facilement trébucher les gens?