Hallo rocco.
Also, was ist besser ist erst einmal die falsche Frage. Zu der Ansicht über die Abschlussart kann dir nur erzählen, was ich bis jetzt so gehört habe.
Demnach wird der Bachelor von einigen Unternehmen hier in Deutschland noch nicht richtig angenommen, ist halt noch neu und muss erst mal einen gewissen Bekanntheitsgrad erreichen.
Der Bachelor ist gegenüber dem Diplom ja auch ein abgeschwächter Abschluss.
Willst du dich aber international orientieren, ist er genau das richtige, weil mehr Länder mit diesem System arbeiten (unter anderem die USA )