Как выудить уникальные файлы их кучи папок, в которых очень много дублирования?

Автор Евгений, 15 мая 2013, 20:04:36

« назад - далее »

0 Пользователи и 1 гость просматривают эту тему.

Евгений

Коллеги!

Вопрос в заголовке. С фотографиями нет проблем - натравил shotwell или её что и импортировал только уникальные фото из любого количества вложенных друг в друга папок...

Есть ли что подобное для импорта (вытягивания) других фалов, скажем doc или txt?

Сижу, дурею, файл за фалом копирую в МС - можно, но долго - а файлов тысячи  :o

qupl

Есть консольная утилита fdupes в стандартном репозитории.
Можно написать скрипт, только какие критерии дублирования (имя, размер, время, содержимое)? И что делать с дублями?

Сообщение объединено: 15 мая 2013, 20:18:11

Англоязычное микро-howto

Сообщение объединено: 15 мая 2013, 20:31:49

Просканил ей 15 Гб фоток для пробы. Минуту искало, нашло :). Полезная вещь.

Евгений

Благодарю, интересная прога, сейчас попробую!

Вот ещё нашёл fslint, интересно, чем они отличаются, кроме интерфейса (fslint по умолчанию ставит графический)?

ogost

fdupes мне нашел 12 гигов дублирующих файлов в /home. как оказалось, там успешно забытый дамп со старого сдохшего харда.
судя по ману, он ещё может удалять дублирующие файлы, с или без подтверждения от пользователя. очень полезная в хозяйстве вещь, благодарю за наводку.