El término digestir se refiere, en su acepción más antigua y en desuso, al acto de digerir, que implica la transformación de los alimentos en el aparato digestivo para convertirlos en sustancias adecuadas para la nutrición.
Aunque hoy en día esta palabra ha caído en desuso, su significado refleja un proceso fundamental para la vida, donde los alimentos se descomponen y se asimilan para proporcionar energía y nutrientes esenciales.