Nachhaltigkeit wird zunehmend ein Thema in der deutschen Wirtschaft. Deutsche Unternehmen sind größtenteils für das Umweltengagement und ein ausgeprägtes Arbeitnehmerrecht bekannt. Im internationalen Vergleich rangiert Deutschland auf den mittleren Plätzen. Auch viele Versicherer fokussieren diese Anforderungen. Klare Chancen stecken in der Steigerung des Kundenvertrauens und auch in der Verbesserung der öffentlichen Reputation. Was machen die Gesellschaften für sich daraus und wie gut gelingt ...