El término demitir se refiere a la acción de renunciar o dejar un cargo o empleo.
Aunque su uso es considerado anticuado y en desuso, su significado sigue siendo relevante en contextos donde se habla de la dejadez de responsabilidades.
En esencia, demitir implica una decisión consciente de apartarse de una función o deber, similar a lo que se entiende por dimitir en la actualidad.