Deutschlands neue Rolle in der globalen Gesundheitspolitik
Erschienen am:
|
Aktualisiert am:
Vor dem Hintergrund eines geringeren Engagements der USA übernimmt Deutschland eine zunehmend zentrale Rolle in der globalen Gesundheit. Daraus ergeben sich neue Handlungsfelder mit medizinischer, politischer und wirtschaftlicher Relevanz.