python read - كيف يمكنني إزالة الأسطر المكررة من الملف؟




file line (10)

لدي ملف مع عمود واحد. كيفية حذف الخطوط المتكررة في ملف؟


Answers

بايثون واحد بطانات:

python -c "import sys; lines = sys.stdin.readlines(); print ''.join(sorted(set(lines)))" < InputFile > OutputFile

يمكنك ان تفعل:

import os
os.system("awk '!x[$0]++' /path/to/file > /path/to/rem-dups")

هنا كنت تستخدم باش في python :)

لديك أيضًا طريقة أخرى:

with open('/tmp/result.txt') as result:
        uniqlines = set(result.readlines())
        with open('/tmp/rmdup.txt', 'w') as rmdup:
            rmdup.writelines(set(uniqlines))

إذا كنت تستخدم * nix ، فحاول تشغيل الأمر التالي:

sort <file name> | uniq

في نظام Unix / Linux ، استخدم الأمر uniq ، وفقًا لإجابة David Locke ، أو حسب تصنيف William Pursell.

إذا كنت تحتاج إلى نص برمجي Python:

lines_seen = set() # holds lines already seen
outfile = open(outfilename, "w")
for line in open(infilename, "r"):
    if line not in lines_seen: # not a duplicate
        outfile.write(line)
        lines_seen.add(line)
outfile.close()

تحديث: ستقوم مجموعة sort / uniq بإزالة التكرارات ولكن ستقوم بإرجاع الملف مع الخطوط التي تم فرزها ، والتي قد تكون أو لا تكون ما تريده. لن يعمل نص برمجي Python أعلاه على إعادة ترتيب الخطوط ، ولكن قم بإسقاط التكرارات فقط. بالطبع ، للحصول على البرنامج النصي أعلاه لفرز كذلك ، فقط ترك outfile.write(line) وبدلاً من ذلك ، مباشرة بعد الحلقة ، القيام outfile.writelines(sorted(lines_seen)) .


uniqlines = set(open('/tmp/foo').readlines())

هذا سوف يعطيك قائمة من الخطوط الفريدة.

الكتابة التي تعود إلى بعض الملفات ستكون سهلة مثل:

bar = open('/tmp/bar', 'w').writelines(set(uniqlines))

bar.close()

الحصول على جميع الخطوط الخاصة بك في القائمة وجعل مجموعة من الخطوط وانت القيام به. فمثلا،

>>> x = ["line1","line2","line3","line2","line1"]
>>> list(set(x))
['line3', 'line2', 'line1']
>>>

وكتابة المحتوى مرة أخرى إلى الملف.


إذا كان أي شخص يبحث عن حل يستخدم تجزئته وهو أكثر براقة ، فهذا هو ما أستخدمه حاليًا:

def remove_duplicate_lines(input_path, output_path):

    if os.path.isfile(output_path):
        raise OSError('File at {} (output file location) exists.'.format(output_path))

    with open(input_path, 'r') as input_file, open(output_path, 'w') as output_file:
        seen_lines = set()

        def add_line(line):
            seen_lines.add(line)
            return line

        output_file.writelines((add_line(line) for line in input_file
                                if line not in seen_lines))

هذه الوظيفة ليست فعالة تماما حيث يتم حساب التجزئة مرتين ، ومع ذلك ، أنا متأكد من أن القيمة يتم تخزينها مؤقتًا.


إضافة إلى إجابةDavid Locke ، مع أنظمة * nix التي يمكنك تشغيلها

sort -u messy_file.txt > clean_file.txt

والتي ستقوم بإنشاء clean_file.txt إزالة التكرارات بترتيب أبجدي.


انظر إلى النص البرمجي الذي أنشأته لإزالة رسائل البريد الإلكتروني المكررة من الملفات النصية. أتمنى أن يساعدك هذا!

# function to remove duplicate emails
def remove_duplicate():
    # opens emails.txt in r mode as one long string and assigns to var
    emails = open('emails.txt', 'r').read()
    # .split() removes excess whitespaces from str, return str as list
    emails = emails.split()
    # empty list to store non-duplicate e-mails
    clean_list = []
    # for loop to append non-duplicate emails to clean list
    for email in emails:
        if email not in clean_list:
            clean_list.append(email)
    return clean_list
    # close emails.txt file
    emails.close()
# assigns no_duplicate_emails.txt to variable below
no_duplicate_emails = open('no_duplicate_emails.txt', 'w')

# function to convert clean_list 'list' elements in to strings
for email in remove_duplicate():
    # .strip() method to remove commas
    email = email.strip(',')
    no_duplicate_emails.write(f"E-mail: {email}\n")
# close no_duplicate_emails.txt file
no_duplicate_emails.close()

git checkout /path/to/deleted.file




python text file-io