La biofilia: perché il contatto con la natura ci rende più sani
La biofilia, antonimo della nostra vita urbanizzata, ci invita a riscoprire il legame con la natura. Studi dimostrano che il contatto con ambienti verdi non solo migliora il nostro benessere…
