Definicja pojęcia: WWF, World Wildlife Fund
WWF, World Wildlife Fund - organizacja międzynarodowa, której celem jest ochrona krajobrazu, wody, powietrza, gleb, flory i fauny na całym świecie. Gromadzi fundusze niezbędne do ochrony przyrody, oraz promuje edukację i badania, które służyłyby ocaleniu najbardziej zagrożonych gatunków i siedlisk na Ziemi. Powstała w 1961 roku, a jej siedzibą jest Szwajcaria.