source: sasview/src/sas/sascalc/dataloader/file_reader_base_class.py @ be43448

ESS_GUIESS_GUI_DocsESS_GUI_batch_fittingESS_GUI_bumps_abstractionESS_GUI_iss1116ESS_GUI_iss879ESS_GUI_iss959ESS_GUI_openclESS_GUI_orderingESS_GUI_sync_sascalccostrafo411magnetic_scattrelease-4.2.2ticket-1009ticket-1094-headlessticket-1242-2d-resolutionticket-1243ticket-1249ticket885unittest-saveload
Last change on this file since be43448 was 83ee7258, checked in by lewis, 7 years ago

Remove unused code

  • Property mode set to 100644
File size: 8.2 KB
Line 
1"""
2This is the base file reader class most file readers should inherit from.
3All generic functionality required for a file loader/reader is built into this
4class
5"""
6
7import os
8import logging
9import numpy as np
10from abc import abstractmethod
11from loader_exceptions import NoKnownLoaderException, FileContentsException,\
12    DataReaderException, DefaultReaderException
13from data_info import Data1D, Data2D, DataInfo, plottable_1D, plottable_2D,\
14    combine_data_info_with_plottable
15
16logger = logging.getLogger(__name__)
17
18
19class FileReader(object):
20    # List of Data1D and Data2D objects to be sent back to data_loader
21    output = []
22    # Current plottable_(1D/2D) object being loaded in
23    current_dataset = None
24    # Current DataInfo object being loaded in
25    current_datainfo = None
26    # String to describe the type of data this reader can load
27    type_name = "ASCII"
28    # Wildcards to display
29    type = ["Text files (*.txt|*.TXT)"]
30    # List of allowed extensions
31    ext = ['.txt']
32    # Bypass extension check and try to load anyway
33    allow_all = False
34    # Able to import the unit converter
35    has_converter = True
36    # Open file handle
37    f_open = None
38    # Default value of zero
39    _ZERO = 1e-16
40
41    def read(self, filepath):
42        """
43        Basic file reader
44
45        :param filepath: The full or relative path to a file to be loaded
46        """
47        if os.path.isfile(filepath):
48            basename, extension = os.path.splitext(os.path.basename(filepath))
49            self.extension = extension.lower()
50            # If the file type is not allowed, return nothing
51            if self.extension in self.ext or self.allow_all:
52                # Try to load the file, but raise an error if unable to.
53                try:
54                    self.f_open = open(filepath, 'rb')
55                    self.get_file_contents()
56
57                except DataReaderException as e:
58                    self.handle_error_message(e.message)
59                except OSError as e:
60                    # If the file cannot be opened
61                    msg = "Unable to open file: {}\n".format(filepath)
62                    msg += e.message
63                    self.handle_error_message(msg)
64                finally:
65                    # Close the file handle if it is open
66                    if not self.f_open.closed:
67                        self.f_open.close()
68                    if len(self.output) > 0:
69                        # Sort the data that's been loaded
70                        self.sort_one_d_data()
71                        self.sort_two_d_data()
72        else:
73            msg = "Unable to find file at: {}\n".format(filepath)
74            msg += "Please check your file path and try again."
75            self.handle_error_message(msg)
76
77        # Return a list of parsed entries that data_loader can manage
78        return self.output
79
80    def handle_error_message(self, msg):
81        """
82        Generic error handler to add an error to the current datainfo to
83        propogate the error up the error chain.
84        :param msg: Error message
85        """
86        if isinstance(self.current_datainfo, DataInfo):
87            self.current_datainfo.errors.append(msg)
88        else:
89            logger.warning(msg)
90
91    def send_to_output(self):
92        """
93        Helper that automatically combines the info and set and then appends it
94        to output
95        """
96        data_obj = combine_data_info_with_plottable(self.current_dataset,
97                                                    self.current_datainfo)
98        self.output.append(data_obj)
99
100    def sort_one_d_data(self):
101        """
102        Sort 1D data along the X axis for consistency
103        """
104        for data in self.output:
105            if isinstance(data, Data1D):
106                # Sort data by increasing x and remove 1st point
107                ind = np.lexsort((data.y, data.x))
108                data.x = np.asarray([data.x[i] for i in ind]).astype(np.float64)
109                data.y = np.asarray([data.y[i] for i in ind]).astype(np.float64)
110                if data.dx is not None:
111                    data.dx = np.asarray([data.dx[i] for i in ind]).astype(np.float64)
112                if data.dxl is not None:
113                    data.dxl = np.asarray([data.dxl[i] for i in ind]).astype(np.float64)
114                if data.dxw is not None:
115                    data.dxw = np.asarray([data.dxw[i] for i in ind]).astype(np.float64)
116                if data.dy is not None:
117                    data.dy = np.asarray([data.dy[i] for i in ind]).astype(np.float64)
118                if data.lam is not None:
119                    data.lam = np.asarray([data.lam[i] for i in ind]).astype(np.float64)
120                if data.dlam is not None:
121                    data.dlam = np.asarray([data.dlam[i] for i in ind]).astype(np.float64)
122                if len(data.x > 0):
123                    data.xmin = np.min(data.x)
124                    data.xmax = np.max(data.x)
125                    data.ymin = np.min(data.y)
126                    data.ymax = np.max(data.y)
127
128    def sort_two_d_data(self):
129        for dataset in self.output:
130            if isinstance(dataset, Data2D):
131                dataset.data = dataset.data.astype(np.float64)
132                dataset.qx_data = dataset.qx_data.astype(np.float64)
133                dataset.xmin = np.min(dataset.qx_data)
134                dataset.xmax = np.max(dataset.qx_data)
135                dataset.qy_data = dataset.qy_data.astype(np.float64)
136                dataset.ymin = np.min(dataset.qy_data)
137                dataset.ymax = np.max(dataset.qy_data)
138                dataset.q_data = np.sqrt(dataset.qx_data * dataset.qx_data
139                                         + dataset.qy_data * dataset.qy_data)
140                if dataset.err_data is not None:
141                    dataset.err_data = dataset.err_data.astype(np.float64)
142                if dataset.dqx_data is not None:
143                    dataset.dqx_data = dataset.dqx_data.astype(np.float64)
144                if dataset.dqy_data is not None:
145                    dataset.dqy_data = dataset.dqy_data.astype(np.float64)
146                if dataset.mask is not None:
147                    dataset.mask = dataset.mask.astype(dtype=bool)
148
149                if len(dataset.data.shape) == 2:
150                    n_rows, n_cols = dataset.data.shape
151                    dataset.y_bins = dataset.qy_data[0::int(n_cols)]
152                    dataset.x_bins = dataset.qx_data[:int(n_cols)]
153                dataset.data = dataset.data.flatten()
154
155    def set_all_to_none(self):
156        """
157        Set all mutable values to None for error handling purposes
158        """
159        self.current_dataset = None
160        self.current_datainfo = None
161        self.output = []
162
163    def remove_empty_q_values(self, has_error_dx=False, has_error_dy=False):
164        """
165        Remove any point where Q == 0
166        """
167        x = self.current_dataset.x
168        self.current_dataset.x = self.current_dataset.x[x != 0]
169        self.current_dataset.y = self.current_dataset.y[x != 0]
170        self.current_dataset.dy = self.current_dataset.dy[x != 0] if \
171            has_error_dy else np.zeros(len(self.current_dataset.y))
172        self.current_dataset.dx = self.current_dataset.dx[x != 0] if \
173            has_error_dx else np.zeros(len(self.current_dataset.x))
174
175    def reset_data_list(self, no_lines=0):
176        """
177        Reset the plottable_1D object
178        """
179        # Initialize data sets with arrays the maximum possible size
180        x = np.zeros(no_lines)
181        y = np.zeros(no_lines)
182        dy = np.zeros(no_lines)
183        dx = np.zeros(no_lines)
184        self.current_dataset = plottable_1D(x, y, dx, dy)
185
186    @staticmethod
187    def splitline(line):
188        """
189        Splits a line into pieces based on common delimeters
190        :param line: A single line of text
191        :return: list of values
192        """
193        # Initial try for CSV (split on ,)
194        toks = line.split(',')
195        # Now try SCSV (split on ;)
196        if len(toks) < 2:
197            toks = line.split(';')
198        # Now go for whitespace
199        if len(toks) < 2:
200            toks = line.split()
201        return toks
202
203    @abstractmethod
204    def get_file_contents(self):
205        """
206        Reader specific class to access the contents of the file
207        All reader classes that inherit from FileReader must implement
208        """
209        pass
Note: See TracBrowser for help on using the repository browser.