Wunden verheilen

von
Wunden verheilen, doch sie hinterlassen Narben. Narben erinnern immer an die Verletzungen und die Vergangenheit.
Wunden verheilen, doch sie hinterlassen Narben. Narben erinnern immer an die Verletzungen und die Vergangenheit.
Verwendetes Bild: Gebrochenes Herz von simonsimages, flickr (CC BY 2.0)