Apple подвергается критике из-за новой системы, которая обнаруживает материалы о сексуальном насилии над детьми (CSAM) на устройствах пользователей из США.
Технология будет искать совпадения с известным CSAM, прежде чем изображение будет сохранено в iCloud Photos.
Read more «Apple раскритиковали за систему, обнаруживающую жестокое обращение с детьми»